04.12.2012 Views

Országos Doktori Jegyzék III. - Nemzeti Erőforrás Minisztérium

Országos Doktori Jegyzék III. - Nemzeti Erőforrás Minisztérium

Országos Doktori Jegyzék III. - Nemzeti Erőforrás Minisztérium

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Országos <strong>Doktori</strong> Jegyzék <strong>III</strong>. 11<br />

5. Antos A. és Lugosi G., Strong minimax lower bounds for learning, Machine Learning, 30:31-<br />

56, 1998.<br />

6. Antos A. és I. Kontoyiannis, Estimating the Entropy of Discrete Distributions, ISIT, 2001. Elfogadva.<br />

7. Antos A., On nonparametric estimates of the expectation, Fourth Hungarian Colloquium on<br />

Limit Theorems of Probability and Statistics, Abstracts of the Talks, Balatonlelle, Hungary,<br />

1999, 0-0. (Proceedings: készületben)<br />

8. Antos A., Lower bounds on the rate of convergence of nonparametric pattern recognition,<br />

Computational Learning Theory: 4th European Conference, EuroCOLT’99, Proceedings,<br />

LNAI/LNCS, 1572:241-252 (szerk.: P.Fischer, H.U.Simon) Springer, Berlin, 1999.<br />

9. Antos A. és Lugosi G., Strong minimax lower bounds for learning, Proceedings of the Ninth<br />

Annual Conference on Computational Learning Theory (COLT’96), 303-309 (Ed.: A.Blum,<br />

M.Kearns) Association for Computing Machinery, New York, 1996.<br />

PhD munka<br />

PhD idõszak évszámai: 1996–1998<br />

Kutatási téma: Nemparaméteres statisztika<br />

<strong>Doktori</strong> iskola, program: BME VIK, Informatika<br />

Témavezetõ: Dr. Gyõrfi László<br />

Témavezetõ intézménye: BME<br />

Védés éve: 2000<br />

Tudományág: mûszaki tudományok<br />

Dolgozat címe: Performance limits of nonparametric estimators<br />

Dolgozat/kutatás ismertetése:<br />

Az értekezés középpontjában a nemparaméteres statisztikai becslések elvi korlátai állnak. Számos<br />

eredmény ismeretes, amely garantálja a becslés konzisztenciáját illetve konvergenciasebességét<br />

növekvõ mintaszám mellett.<br />

Ezen eredmények éles voltát úgy igazolhatjuk, ha a felsõ korlátokhoz hasonló nagyságrendû<br />

alsó korlátokat bizonyítunk a legjobb becslõ „legrosszabb” esetre vonatkozóan. Az ilyen minimax<br />

alsó korlátoknál a „rossz” eloszlás változik a mintaszámmal. Az általunk vizsgált individuális<br />

alsó korlátok egy olyan fix eloszlás létezését mutatják meg, amely tetszõlegesen nagy mintaszám<br />

mellett „rossz” lehet.<br />

A regressziófüggvény becslés és alakfelismerés esetében egyes eloszlásosztályokra vonatkozó<br />

ismert minimax alsó korlátokat kiterjesztek individuális alsó korláttá. A várhatóérték, entrópia,<br />

kölcsönös információ és a Bayes-hiba esetére pedig bebizonyítom, hogy míg van konzisztens<br />

becslésük, univerzális konvergenciasebesség nem létezik, ami szintén individuális alsó korlátként<br />

fogható fel.<br />

Tárgyszavak: nemparaméteres, alakfelismerés, regressziófüggvény becslés, funkcionál becslés

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!