Országos Doktori Jegyzék III. - Nemzeti Erőforrás Minisztérium
Országos Doktori Jegyzék III. - Nemzeti Erőforrás Minisztérium
Országos Doktori Jegyzék III. - Nemzeti Erőforrás Minisztérium
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Országos <strong>Doktori</strong> Jegyzék <strong>III</strong>. 11<br />
5. Antos A. és Lugosi G., Strong minimax lower bounds for learning, Machine Learning, 30:31-<br />
56, 1998.<br />
6. Antos A. és I. Kontoyiannis, Estimating the Entropy of Discrete Distributions, ISIT, 2001. Elfogadva.<br />
7. Antos A., On nonparametric estimates of the expectation, Fourth Hungarian Colloquium on<br />
Limit Theorems of Probability and Statistics, Abstracts of the Talks, Balatonlelle, Hungary,<br />
1999, 0-0. (Proceedings: készületben)<br />
8. Antos A., Lower bounds on the rate of convergence of nonparametric pattern recognition,<br />
Computational Learning Theory: 4th European Conference, EuroCOLT’99, Proceedings,<br />
LNAI/LNCS, 1572:241-252 (szerk.: P.Fischer, H.U.Simon) Springer, Berlin, 1999.<br />
9. Antos A. és Lugosi G., Strong minimax lower bounds for learning, Proceedings of the Ninth<br />
Annual Conference on Computational Learning Theory (COLT’96), 303-309 (Ed.: A.Blum,<br />
M.Kearns) Association for Computing Machinery, New York, 1996.<br />
PhD munka<br />
PhD idõszak évszámai: 1996–1998<br />
Kutatási téma: Nemparaméteres statisztika<br />
<strong>Doktori</strong> iskola, program: BME VIK, Informatika<br />
Témavezetõ: Dr. Gyõrfi László<br />
Témavezetõ intézménye: BME<br />
Védés éve: 2000<br />
Tudományág: mûszaki tudományok<br />
Dolgozat címe: Performance limits of nonparametric estimators<br />
Dolgozat/kutatás ismertetése:<br />
Az értekezés középpontjában a nemparaméteres statisztikai becslések elvi korlátai állnak. Számos<br />
eredmény ismeretes, amely garantálja a becslés konzisztenciáját illetve konvergenciasebességét<br />
növekvõ mintaszám mellett.<br />
Ezen eredmények éles voltát úgy igazolhatjuk, ha a felsõ korlátokhoz hasonló nagyságrendû<br />
alsó korlátokat bizonyítunk a legjobb becslõ „legrosszabb” esetre vonatkozóan. Az ilyen minimax<br />
alsó korlátoknál a „rossz” eloszlás változik a mintaszámmal. Az általunk vizsgált individuális<br />
alsó korlátok egy olyan fix eloszlás létezését mutatják meg, amely tetszõlegesen nagy mintaszám<br />
mellett „rossz” lehet.<br />
A regressziófüggvény becslés és alakfelismerés esetében egyes eloszlásosztályokra vonatkozó<br />
ismert minimax alsó korlátokat kiterjesztek individuális alsó korláttá. A várhatóérték, entrópia,<br />
kölcsönös információ és a Bayes-hiba esetére pedig bebizonyítom, hogy míg van konzisztens<br />
becslésük, univerzális konvergenciasebesség nem létezik, ami szintén individuális alsó korlátként<br />
fogható fel.<br />
Tárgyszavak: nemparaméteres, alakfelismerés, regressziófüggvény becslés, funkcionál becslés