Me pak fjalë, ju nuk mund të bëni përhapje prapa nëse nuk keni një funksion objektiv. Ju nuk mund të keni një funksion objektiv nëse nuk keni një masë midis një vlere të parashikuar dhe një vlere të etiketuar (të dhëna aktuale ose të trajnimit). Pra, për të arritur "të mësuarit e pambikëqyrur", mund të keni humbur aftësinë për të llogaritur një gradient.
Cilat janë kufizimet e përhapjes së pasme?
Disavantazhet e algoritmit të përhapjes së pasme:
Ai mbështetet në të dhëna për të kryer një problem specifik. I ndjeshëm ndaj të dhënave komplekse/të zhurmshme. Ajo ka nevojë për derivatet e funksioneve të aktivizimit për kohën e projektimit të rrjetit.
Si e rregulloni përhapjen e pasme?
Procesi i përhapjes së pasme në rrjetin nervor të thellë
- Vlerat hyrëse. X1=0,05. …
- Pesha fillestare. W1=0,15 w5=0,40. …
- Vlerat e paragjykimeve. b1=0.35 b2=0.60.
- Vlerat e synuara. T1=0.01. …
- Leja përpara. Për të gjetur vlerën e H1 ne fillimisht shumëzojmë vlerën hyrëse nga peshat si. …
- Kalim prapa në shtresën dalëse. …
- Kalim prapa në shtresën e fshehur.
A është efikas përhapja e pasme?
Përhapja e pasme është efikas, duke e bërë të realizueshme trajnimin e rrjeteve me shumë shtresa që përmbajnë shumë neurone ndërsa përditësohen peshat për të minimizuar humbjen.
Çfarë problemi zgjidh prapapërhapja kur punoni me rrjetet nervore?
Në përshtatjen e një rrjeti nervor, përhapja e pasme llogarit gradientin efunksioni i humbjes në lidhje me peshat e rrjetit për një shembull të vetëm hyrje-dalje, dhe e bën këtë në mënyrë efikase, ndryshe nga një llogaritje e drejtpërdrejtë naive e gradientit në lidhje me secilën peshë individualisht.