Գործառույթների ներկայացման ուժը

Հրաժում. Սա nակնարկներ Ֆունկցիաների ուժը դասի մասին (PadhAI onefourthlabs դասընթաց Առաջին դասընթաց խորը ուսուցման մասին)

Մենք հանդիպեցինք, որ ներկայումս հայտնի են MP Neuron, Perceptron, Sigmoid մոդելներ այդ մոդելներից, որոնցից մենք կարող ենք որոշ եզրակացություններ անել, ինչպիսիք են տվյալները, առաջադրանքը, մոդելը, կորուստը, ուսուցման գնահատումը (կոչվում է վեց բանկա):

Նույնիսկ այս մոդելների դեպքում մենք չենք կարող վարել ոչ գծային բաժանելի տվյալներդա հիմնական թերությունն է, որին մենք հանդիպում ենք այս մոդելներն օգտագործելիս:

Հիմնական որոնումն այստեղ ավելի լավ գործառույթ գտնելն է, որը կարող է նույնիսկ կարգավորել ոչ գծային բաժանելի տվյալները:

Մենք այստեղ կօգտագործենք գրադիենտ ծագման ալգորիթմը՝ կշիռները թարմացնելու համար:

Մենք համապատասխանաբար կթարմացնենք քաշը` ճամփորդելով գրադիենտին հակառակ ուղղությամբ:

Այսպես է աշխատում գրադիենտ իջնելը, որտեղ մասամբ կորստի ածանցյալները գործում են համապատասխանաբար w և b-ով և այդ արժեքները հանում են w և b-ի նախորդ արժեքներից փոքր ուսուցման արագությամբ բազմապատկելով eta ստեղծել նոր կշիռներ համապատասխանաբար w(t+1) և b(t+1):

Այսպիսով, այս դեպքում մենք պետք է հանդես գանք շարունակական գործառույթներով: Շարունակող գործառույթներից մի քանիսը ներկայացված են ստորև:

Առաջին հարցը, որ մենք ստանում ենք, այն է, թե ինչու են մեզ անհրաժեշտ բարդ գործառույթները:

Բարդ հարաբերությունների մոդելավորման համար մեզ անհրաժեշտ է բարդ ֆունկցիա: Պարզ օրինակը, որը մենք կարող ենք բերել այստեղ, բջջային հեռախոսների պատյանն է, այսինքն՝ մենք կարող ենք գրաֆիկ գծել արժեքի և շերտի չափի միջև, ինչպես ցույց է տրված ստորև բերված գրաֆիկում:

Այստեղ, ինչպես ցույց է տրված գծապատկերում, էկրանի չափերը 3,5-ից պակաս են, 3,5-ից 4,5-ի միջակայքում և 4,5-ից մեծպատյանները, ինչպես նաև գները: տատանվում է 8K-ից, 8K-ից մինչև 12K և ավելի քան 12K:այսպեսյուրաքանչյուր գծագրված կետը համապատասխանում է էկրանի որոշակի չափին և արժեքին: .

Եթե ​​դուք մարդ եք, ով սիրում է միայն հեռախոս, որի գինը տատանվում է 8K-ից 12K և էկրանի չափը 2,5-ից 4,5 (կարմիր կետերը գրաֆիկում):

Այստեղ, այս դեպքում, չկա գիծ, ​​որը դուք պետք է գծեք կարմիր և կապույտ կետերը տարբերելու համար, ինչպես ցույց է տրված, քանի որ այս տվյալները ոչ գծային բաժանելի տվյալներ են՝ տարանջատման կետերը բաժանելու համար: Այսպիսով, մեզ անհրաժեշտ է մի ֆունկցիա, որը բաժանում է տվյալները, բոլոր կապույտ կետերը վերագրում է զրոյի արժեքին, իսկ բոլոր կարմիր կետերին՝ մեկին: Ինչպես ցույց է տրված ստորև նկարում:

Բայց իրականում, ճիշտ պատկերը վերևում այնքան էլ հարմար չէ, քանի որ այն ունի սուր եզրեր և այն հարթ գործառույթ չէ, ինչը ենթադրում է, որ որոշակի կետերում այն ​​չի տարբերվում:

Մեզ անհրաժեշտ է հարթ ֆունկցիա, որը տարբերվում է բոլոր կետերում

որը 0 է բոլոր կապույտ շրջաններում և աստիճանաբար բարձրանում է մինչև 1, 1-ը պետք է համապատասխանի կարմիր կետերին այս դեպքում և ամենուր իր 0-ին:

Այսպես ֆունկցիան համապատասխանում է կարմիր և կապույտ կետերին զրոյական և մեկով, այն տարբերելի է բոլոր կետերում՝ լինելով հարթ կոր։

Նույնիսկ սիգմոիդ ֆունկցիան այս դեպքում ձախողվում է, քանի որ սիգմոիդի ձևը չի բավարարում այս դեպքում կարմիրի և կապույտի միջև դասակարգելու կետերը:

Ինչպե՞ս կարող ենք նույնիսկ բարդ գործառույթներ գտնել:

Շատ տվյալների հավաքածուներ kaggle-ից և իրական ժամանակի օրինակներից, խնդիրներից: Տվյալների հավաքածուները գծագրված են ստորև, որտեղ սիգմոիդ ֆունկցիան նույնպես չի կարողանում դասակարգել դրանք, որտեղ մեզ անհրաժեշտ է բարդ ֆունկցիա՝ դրանք դասակարգելու համար:

Վերոհիշյալ բոլոր դեպքերում շատ դժվար և անհնար է տվյալների դասակարգումը MP neuron, Perceptron և Sigmoid ֆունկցիաների միջոցով:

Վերոնշյալները շատ բարդ ֆունկցիաներ են, մենք նույնիսկ կարող ենք դրանք սահմանել և եզրակացության գալ, որ սա հավասարումն է, և մենք նույնիսկ չգիտենք, թե ինչ պետք է սկսել, և դրանք բարդ գործառույթներն են:

Շենքի կառուցում.

Հոյակապ շենք, հայտնի շենք, բարձր շենք, կարճ շենք, բարդ շենք, հասարակ շենք, ինչ էլ որ լինի շենքը, շինարարությունը սկսվում է մեկ աղյուսից՝ դնելով մի աղյուսը մյուսի վրա և մեկը մյուսի կողքին՝ մյուսի վրա։ ըստ պահանջվող ձևի, և մենք կավարտենք շինարարությունը, թե որքան բարդ է այն:

Նույնիսկ բարդ շենքերը կառուցվում են մեկ աղյուսից սկսած :P

Նույն դեպքում բարդ ֆունկցիայի դեպքում մենք պետք է կառուցենք, որ այս դեպքում աղյուսների փոխարեն սկսելով փոքր սիգմոիդ ֆունկցիան: Այսպես մենք սիգմոիդը դնում ենք սիգմոիդների և սիգմոիդների վրա սիգմոիդների կողքին և կառուցում ենք սիգմոիդ ֆունկցիաների ցանց, և այնտեղ ավարտվում է հիանալի շենք, որը կոչվում է Նյարդային ցանց

Այժմ մեր գործառույթն այն է, որ խորը նեյրոնային ցանցը վերցնում է x1-ից xn որպես մուտքեր և փոխանցում դրանք բազմաթիվ փոխակերպումների միջոցով:

Սա կոչվում է Համընդհանուր մոտարկման թեորեմ:

Նմանապես, մենք կկառուցենք տարբեր ցանցեր՝ հիմնվելով դասակարգման պահանջի վրա, բոլոր ցանցերը նույնը չեն լինի, դրանք տարբերվում են սիգմոիդ նեյրոնների ոչ մի շերտում և յուրաքանչյուր շերտում սիգմոիդ նեյրոնների քանակով: Ահա թե ինչպես մենք կառուցեցինք մեծ և խորը նյարդային ցանց:

Համընդհանուր մոտարկման թեորեմ՝

Այստեղ նեյրոնները գործում են որպես շինարարական բլոկ, շատ նման շինարարական բլոկներ դառնում են ֆունկցիա և ֆունկցիա են կատարում մուտքերից մինչև ելքեր, ռազմավարությունը կայանում է նրանում, որ փորձեք շատ նման գործառույթներ և տեսնեք, թե որն է լավագույնս աշխատում: դա այն է, որ շատ նեյրոններ նպաստում են նեյրոնային ցանցի ձևավորմանը՝ լուծելու ցանկացած բարդ ֆունկցիա:

Ոչ պաշտոնական ապացույց՝

այն ֆունկցիան, որը մենք տեսնում ենք այստեղ, իրական հարաբերությունն է x-ի և y-ի միջև: Ինչ էլ որ լուծումը լինի x-ի և y-ի իրական հարաբերությունը [y = f(x)]: մենք չգիտենք, թե որն է այս ֆունկցիան, և մենք մոտավոր կկատարենք այս ֆունկցիան՝ օգտագործելով տարբեր գործառույթներ:

Այսպես մենք կմոտավորենք իրական ֆունկցիան տարբեր փոքր ֆունկցիաներով, ինչպիսիք են փոքր մանուշակագույն գույնի ձողերը:

Որքան ավելի շատ գործառույթ եք վերցնում: այնքան ավելի ճշգրիտ կհաստատեք ֆունկցիան, ինչպես դուրս կգաք բարդ ֆունկցիայի հետ: Ավելի շատ բարակ գծերի դեպքում մենք չափազանց կմոտենանք իրական մոտավորությանը:

Շատ առանձին ֆունկցիաների այդ համակցության նման մենք կմոտենանք իսկական մոտավորությանը, այդպես մենք ստանում ենք մեզ անհրաժեշտ բարդ ֆունկցիան։

երբ մենք վերցնում ենք սիգմոիդ ֆունկցիան բարձր w և b արժեքներով, այնպես որ ֆունկցիան նման կլինի քայլային ֆունկցիային, մենք կվերցնենք ստորև նշված երկու սիգմոիդ ֆունկցիա և կհանենք դրանք:

Դրանց հանելը հանգեցնում է փոքր լայնությամբ և վայրէջքի բարձրությամբ աշտարակի առաջացմանը:

Ինչպես այս համակցությունը, շատ աշտարակներ վերջապես տանում են դեպի նեյրոնների ցանց, այսպես՝ մենք տանում ենք դեպի իրական ֆունկցիայի մոտավորություն, այսինքն՝ վերջապես բարդ ֆունկցիան:

Այս ցուցիչ ապացույցն է Համընդհանուր մոտարկման թեորեմի համար:

Ի վերջո, մենք գալիս ենք հետևյալ եզրակացության

Խոսքը վերաբերում է ոչ գծային բաժանելի տվյալների դասակարգման գործառույթի ուժին, օգտագործելով բարդ ֆունկցիաներ՝ սիգմոիդ նեյրոններ կոչվող շինանյութերի օգնությամբ:

Սա փոքրիկ փորձ է՝ վերբեռնելով նշումները: Ես հավատում եմ, որ «Գիտելիքի փոխանակումը հմտությունների զարգացման լավագույն միջոցն է»: Մեկնաբանությունները կգնահատվեն: Նույնիսկ փոքր խմբագրումներ կարելի է առաջարկել:

Յուրաքանչյուր ծափահարություն մեծ խրախուսանք կլինի:

Հետևեք իմ մեդիային ավելի շատ թարմացումների համար……