2006(â1)
2006(â1)
2006(â1)
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Непараметрические алгоритмы можно реализовать при недостаточных априорных<br />
сведениях об объектах локации, однако их эффективность обычно далека от потенциально<br />
достижимой. Кроме того, некоторые из них довольно сложны в практической реализации.<br />
Нейрокомпьютерные алгоритмы отличаются своей заранее заданной универсальной<br />
структурой с большим числом неизвестных параметров, уточняемых в процессе адаптации<br />
(обучения). Возрастание вычислительных затрат при универсализации алгоритма компенсируется<br />
ростом производительности вычислительных средств.<br />
В настоящее время наблюдается повышенный интерес к нейросетевым методам и<br />
построенным на их базе нейрокомпьютерам. В отличие от классических методов обработки<br />
информации, базирующихся на изучении и априорном задании более или менее сложной<br />
модели процесса или системы, нейросети сами формируют модель явления в процессе<br />
обучения, т. е. практически не требуют априорных данных о модели.<br />
После обучения такие системы могут достигать потенциальных пределов качества<br />
функционирования при решении задач обнаружения, разрешения, сверхразрешения, оценки<br />
параметров сигналов, распознавания образов.<br />
Таким образом, применение нейронных сетей (НС) является одним из наиболее перспективных<br />
путей для повышения эффективности и сокращения сложности распознаваемой<br />
системы радиолокационных целей.<br />
Принципы построения нейрокомпьютерных алгоритмов распознавания.<br />
Модель технического нейрона. МакКаллок и Питтс [10]–[15] предложили использовать<br />
бинарный пороговый элемент в качестве основы модели НС. Этот нейрон вычисляет<br />
взвешенную с коэффициентами w = { w } ( j = 1, 2, , N )<br />
{ x j} ( j 1, 2, , N )<br />
x = =<br />
j<br />
… сумму n входных сигналов<br />
… и формирует на выходе сигнал логической единицы, если эта<br />
сумма превышает определенный заранее порог w 0 , и 0 – в противном случае. Объединив<br />
сумму и порог в аргументе оператора нелинейного преобразования и рассматривая порог<br />
N<br />
как весовой коэффициент, связанный с постоянным входом x 0 = 1, получим запись функ-<br />
⎛<br />
⎞<br />
ции активации нейрона y = f ( n) = f ∑ w j x j<br />
( t) + w0<br />
⎜<br />
⎟<br />
, где f ( n ) – оператор нелинейного<br />
⎝ j=<br />
1<br />
⎠<br />
N<br />
преобразования; n = ∑ w j x j<br />
( t) + w0<br />
– его аргумент (рис. 2).<br />
j=<br />
1<br />
В качестве оператора нелинейного преобразования могут использоваться различные<br />
функции в зависимости от решаемой задачи и типа НС. Выбор функции активации определяется:<br />
• спецификой задачи;<br />
• удобством реализации на ЭВМ, в виде электрической схемы или другим способом;<br />
• алгоритмом обучения: некоторые алгоритмы накладывают ограничения на вид функции<br />
активации, которые необходимо учитывать.<br />
50