«Չնայած դեռ իր սկզբնական շրջանում, մեքենայական ուսուցումը կփոխի խաղը մատակարարման շղթայում»:— Քրիս Դաֆֆի

Ներածություն

Մեքենայական ուսուցումը, անշուշտ, այսօրվա ամենահզոր և ազդեցիկ տեխնոլոգիաներից մեկն է: Ավելի կարևոր է, որ մենք դեռ պետք է իրացնենք դրա ողջ ներուժը: Այն, առանց հարցի, կշարունակի լինել տեսանելի ապագայի վերնագրերում: Այս հոդվածը նախատեսված է ծառայելու որպես ներածություն մեքենայական ուսուցման հայեցակարգերին՝ ընդգրկելով բոլոր հիմնական հասկացությունները՝ առանց չափազանց մանրամասնելու:

Մեքենայի ուսուցումը տվյալների գիտելիքի վերածելու տեխնոլոգիա է: Վերջին 50 տարում տվյալների պայթյուն է եղել։ Տվյալների այս ավալանշն անիմաստ է, քանի դեռ չենք վերլուծել դրանք և բացահայտել դրանցում թաքնված օրինաչափությունները: Մեքենայական ուսուցման տեխնիկան օգտագործվում է բարդ տվյալների մեջ օգտակար հիմքում ընկած օրինաչափությունների հայտնաբերման համար, որոնք այլապես դժվար կլիներ գտնել: Թաքնված օրինաչափությունները և իրավիճակի մասին տեղեկատվությունը կարող են օգտագործվել ապագա իրադարձությունները կանխատեսելու և բարդ որոշումներ կայացնելու համար:

Մեզանից մեծամասնությունը տեղյակ չէ, որ մենք արդեն առնչվում ենք Machine Learning-ով ամեն օր: Ամեն անգամ, երբ մենք Google-ում որևէ բան ենք լսում, երաժշտություն ենք լսում կամ լուսանկարում, Machine Learning-ը դառնում է այն շարժիչի մի մասը, որն անընդհատ սովորում և կատարելագործվում է յուրաքանչյուր փոխազդեցության հետ: Այն նաև խաղը փոխող նորարարությունների հիմքում է, ինչպիսիք են քաղցկեղի հայտնաբերումը, դեղամիջոցների մշակումը և ինքնակառավարվող մեքենաները:

Պատճառը, որ մեքենայական ուսուցումն այդքան հուզիչ է, այն է, որ այն մի քայլ հեռու է մեր նախորդ կանոնների վրա հիմնված համակարգերից.

if(x = y): do z

Մեքենաները պետք է անցնեն ուսուցման գործընթաց՝ հասկանալու երևույթը կառավարող կանոնները, փորձարկելով այլընտրանքային կանոնները և սովորել՝ հիմնվելով դրանց արդյունավետության վրա: Արդյունքում, այն կոչվում է մեքենայական ուսուցում:

Գոյություն ունի ուսուցման չորս տեսակ՝ վերահսկվող, չվերահսկվող, կիսավերահսկվող և ամրապնդող ուսուցում: Մեքենայական ուսուցման յուրաքանչյուր տեսակ ունի յուրահատուկ մեթոդ, սակայն նրանք բոլորը հավատարիմ են նույն հիմնարար տեխնիկային և տեսությանը: Այս բացատրությունը սկսվում է մեքենայական ուսուցման ընդհանուր ներդրմամբ և այնուհետև խորանում է յուրաքանչյուր մոտեցման մեջ:

Տերմինաբանություն

  • Տվյալների հավաքածու. տվյալների մի շարք օրինակներ, որոնք պարունակում են գործառույթներ, որոնք կարևոր են խնդրի լուծման համար:
  • Հատկություններ. տվյալների կարևոր մասեր, որոնք օգնում են մեզ հասկանալ խնդիրը: Սրանք սնվում են մեքենայական ուսուցման ալգորիթմի մեջ՝ օգնելու նրան սովորել:
  • Մոդել. երևույթի ներկայացում (ներքին մոդել), որը սովորել է մեքենայական ուսուցման ալգորիթմը: Դա սովորում է մարզումների ժամանակ ցուցադրված տվյալներից: Մոդելը այն արդյունքն է, որը դուք ստանում եք ալգորիթմի վերապատրաստումից հետո: Օրինակ, որոշման ծառի ալգորիթմը կպատրաստվի և կստեղծի որոշումների ծառի մոդել:

Գործընթացը

  1. Տվյալների հավաքում. Հավաքեք այն տվյալները, որոնցից ալգորիթմը կսովորի:
  2. Տվյալների պատրաստում. Ձևաչափեք և մշակեք տվյալները օպտիմալ ձևաչափի մեջ՝ արդյունահանելով կարևոր առանձնահատկություններ և կատարելով չափերի կրճատում:
  3. Ուսուցում. Նաև հայտնի է որպես համապատասխանության փուլ, այստեղ է մեքենայական ուսուցման ալգորիթմը սովորում` ցույց տալով հավաքված և պատրաստված տվյալները:
  4. Գնահատում. Փորձեք մոդելը՝ տեսնելու, թե որքան լավ է այն աշխատում:
  5. Թյունինգ. ճշգրտեք մոդելը՝ առավելագույնի հասցնելու նրա արդյունավետությունը:

Նախապատմության տեսություն

Ծագումները

Վերլուծական շարժիչը հյուսում է հանրահաշվական նախշեր, ինչպես Ժակարդն է հյուսում ծաղիկներ և տերևներ— Ադա Լավլեյս

Ադա Լավլեյսը, հաշվողական տեխնոլոգիաների հիմնադիրներից մեկը և, հավանաբար, առաջին համակարգչային ծրագրավորողը, հասկացավ, որաշխարհում ամեն ինչ կարելի է նկարագրել մաթեմատիկայի միջոցով:

Ավելի կարևոր է, որ սա նշանակում էր, որ կարող է ստեղծվել մաթեմատիկական բանաձև՝ ցանկացած երևույթ ներկայացնող հարաբերությունները բխելու համար: Ադա Լավլեյսը հասկացավ, որ մեքենաներն ունեին աշխարհը հասկանալու ներուժ՝ առանց մարդկային օգնության կարիքի:

Մոտ 200 տարի անց այս հիմնարար գաղափարները կարևոր նշանակություն ունեն մեքենայական ուսուցման մեջ: Անկախ նրանից, թե որն է խնդիրը, դրա տեղեկատվությունը կարող է գծագրվել գրաֆիկի վրա որպես տվյալների կետեր: Այնուհետև մեքենայական ուսուցումը փորձում է գտնել սկզբնական տեղեկատվության մեջ թաքնված մաթեմատիկական օրինաչափությունները և հարաբերությունները:

Հավանականությունների տեսություն

Հավանականությունը կանոնակարգված կարծիք է… տվյալներից եզրակացությունը ոչ այլ ինչ է, քան նման կարծիքի վերանայում՝ համապատասխան նոր տեղեկատվության լույսի ներքո — Թոմաս Բայես

Մեկ այլ մաթեմատիկոս՝ Թոմաս Բեյսը, հիմնեց գաղափարներ, որոնք էական նշանակություն ունեն հավանականությունների տեսության մեջ, որը դրսևորվում է մեքենայական ուսուցման մեջ:

Մենք ապրում ենք հավանական աշխարհում: Այն ամենը, ինչ տեղի է ունենում, դրան կցված է անորոշություն: Հավանականության Բայեսյան մեկնաբանությունն այն է, ինչի վրա հիմնված է մեքենայական ուսուցումը: Բայեսյան հավանականությունը նշանակում է, որ մենք կարծում ենք, որ հավանականությունը քանակականացնում է իրադարձության անորոշությունը:

Այդ իսկ պատճառով մենք պետք է մեր հավանականությունները հիմնենք իրադարձության մասին հասանելի տեղեկատվության վրա, այլ ոչ թե հաշվենք կրկնվող փորձարկումների քանակը: Օրինակ, ֆուտբոլային խաղը կանխատեսելիս, «Մանչեսթեր Յունայթեդ»-ի «Լիվերպուլ»-ի դեմ հաղթանակների ընդհանուր քանակությունը հաշվելու փոխարեն, բայեսյան մոտեցումը կօգտագործի համապատասխան տեղեկատվություն, ինչպիսիք են ներկայիս ձևը, առաջնությունը և մեկնարկային կազմը:

Այս մոտեցման առավելությունն այն է, որ հավանականությունները դեռևս կարող են վերագրվել հազվագյուտ իրադարձություններին, քանի որ որոշումների կայացման գործընթացը հիմնված է համապատասխան հատկանիշներիև պատճառաբանության վրա:

Մեքենայի ուսուցման մոտեցումներ

Կան բազմաթիվ մոտեցումներ, որոնք կարելի է կիրառել մեքենայական ուսուցում իրականացնելիս: Նրանք սովորաբար խմբավորվում են ստորև նշված ոլորտներում: Վերահսկվող և չվերահսկվող մոտեցումները լավ հաստատված և ամենատարածված մոտեցումներն են: Կիսավերահսկվող և ուժեղացվող ուսուցումն ավելի նոր և բարդ է, բայց տպավորիչ արդյունքներ է ցույց տվել:

Ոչ անվճար ճաշի թեորեմը հայտնի է մեքենայական ուսուցման մեջ: Այն նշում է, որ չկա մեկ ալգորիթմ, որը լավ կաշխատի բոլոր առաջադրանքների համար: Յուրաքանչյուր խնդիր, որը դուք փորձում եք լուծել, ունի իր առանձնահատկությունները: Հետևաբար, կան բազմաթիվ ալգորիթմներ և մոտեցումներ, որոնք համապատասխանում են յուրաքանչյուր խնդրի առանձին տարօրինակություններին: Մեքենայական ուսուցման և AI-ի շատ այլ ոճեր կշարունակվեն ներկայացվել, որոնք լավագույնս համապատասխանում են տարբեր խնդիրներին:

Վերահսկվող ուսուցում

Վերահսկվող ուսուցման ընթացքում նպատակն է սովորել քարտեզագրումը(կանոնները) մի շարք մուտքերիև ելքերի միջև: >

Օրինակ՝ մուտքերը կարող են լինել եղանակի կանխատեսումը, իսկ ելքերը՝ լողափի այցելուները: Վերահսկվող ուսուցման նպատակը կլինի սովորել քարտեզագրումը, որը նկարագրում է կապըջերմաստիճանի և ծովափնյա այցելուների թվի միջև:

Օրինակ պիտակավորվածտվյալները տրամադրվում են անցյալի մուտքային և ելքային զույգերի ուսուցման գործընթացի ընթացքում՝ մոդելին սովորեցնելու համար, թե ինչպես պետք է վարվի, հետևաբար՝ «վերահսկվող» ուսուցումը: Լողափի օրինակի համար, նոր մուտքերը կարող են սնվել կանխատեսված ջերմաստիճանից, և մեքենայական ուսուցման ալգորիթմն այնուհետև արտադրելու է ապագա կանխատեսում այցելուների թվի համար:

Նոր մուտքերին հարմարվելու և կանխատեսումներ անելը մեքենայական ուսուցման կարևորագույն ընդհանրացման մասն է: Վերապատրաստման ընթացքում մենք ցանկանում ենք առավելագույնի հասցնել ընդհանրացումը, ուստի վերահսկվող մոդելը սահմանում է իրական «ընդհանուր» հիմքում ընկած հարաբերությունները: Եթե ​​մոդելը չափից ավելի պատրաստված է, մենք չափից դուրս կհամապատասխանենք օգտագործված օրինակներին, և մոդելը չի կարողանա հարմարվել նոր, նախկինում չտեսնված մուտքերին:

Կողմնակի ազդեցություն, որը պետք է տեղյակ լինել վերահսկվող ուսուցման ժամանակ, որ վերահսկողությունը, որը մենք տրամադրում ենք, ներկայացնում է ուսուցման կողմնակալություն: Մոդելը կարող է միայնընդօրինակելճիշտ այն, ինչ ցուցադրվել է, ուստի շատ կարևոր է ցույց տալ այնհուսալի, անաչառ օրինակներ: Բացի այդ, վերահսկվող ուսուցումը սովորաբար պահանջում է շատ տվյալներ, նախքան այն սովորելը: Բավարար վստահելի պիտակավորված տվյալներ ստանալը հաճախ վերահսկվող ուսուցման օգտագործման ամենադժվար և ամենաթանկ մասն է: (Այսպիսով, թե ինչու են տվյալները կոչվում նոր նավթ):

Վերահսկվող մեքենայական ուսուցման մոդելից ստացված արդյունքը կարող է լինել կատեգորիասահմանված շարքից, օրինակ՝ [ցածր, միջին, բարձր] ծովափնյա այցելուների թվի համար.

Input [temperature=20] -> Model -> Output = [visitors=high]

Երբ դա այդպես է, նա որոշում է, թե ինչպես կարելի է դասակարգել մուտքագրումը, և դա հայտնի է որպես դասակարգում:

Որպես այլընտրանք, ելքը կարող է լինել իրական աշխարհի սկալար (արտադրել թիվ).

Input [temperature=20] -> Model -> Output = [visitors=300]

Երբ դա այդպես է, այն հայտնի է որպես հետընթաց:

Դասակարգում

Դասակարգումն օգտագործվում է նմանատիպ տվյալների կետերը տարբեր բաժիններում խմբավորելու համար՝ դրանք դասակարգելու համար: Մեքենայի ուսուցումն օգտագործվում էգտնելու կանոնները, որոնք բացատրում են, թե ինչպես կարելի է առանձնացնել տվյալների տարբեր կետերը:

Բայց ինչպե՞ս են ստեղծվում կախարդական կանոնները։ Դե, կանոնները բացահայտելու բազմաթիվ եղանակներ կան: Նրանք բոլորը կենտրոնանում են տվյալների և պատասխանների օգտագործման վրա՝ հայտնաբերելու կանոններորոնք գծային կերպով առանձնացնում տվյալների կետերը:

Գծային բաժանելիությունը մեքենայական ուսուցման հիմնական հասկացությունն է: Այն ամենը, ինչ նշանակում է գծային բաժանելիություն, այն է, որ «կարո՞ղ են տվյալների տարբեր կետերը բաժանվել տողով»: Այսպիսով, պարզ ասած, դասակարգման մոտեցումները փորձում են գտնել տվյալների կետերը գծով առանձնացնելու լավագույն միջոցը:

Դասերի միջև գծված գծերը հայտնի են որպես որոշման սահմաններ: Ամբողջ տարածքը, որն ընտրված է դասը սահմանելու համար, հայտնի է որպես որոշման մակերես: Որոշման մակերևույթը սահմանում է, որ եթե տվյալների կետը ընկնում է իր սահմանների մեջ, ապա նրան կհատկացվի որոշակի դաս:

Հետընթաց

Հետընթացը վերահսկվող ուսուցման մեկ այլ ձև է: Դասակարգման և ռեգրեսիայի միջև տարբերությունն այն է, որ ռեգրեսիան արտադրում է թիվ այլ ոչ թե դաս: Հետևաբար, ռեգրեսիան օգտակար է թվերի վրա հիմնված խնդիրներ կանխատեսելիս, ինչպիսիք են ֆոնդային շուկայի գները, տվյալ օրվա ջերմաստիճանը կամ իրադարձության հավանականությունը:

Օրինակներ

Ֆինանսական առևտրում ռեգրեսիան օգտագործվում է բաժնետոմսերի և այլ ակտիվների օրինաչափությունները գտնելու համար՝ որոշելու, թե երբ գնել/վաճառել և շահույթ ստանալ: Դասակարգման համար այն արդեն օգտագործվում է դասակարգելու համար, եթե ստացված նամակը սպամ է:

Ե՛վ դասակարգումը, և՛ ռեգրեսիոն վերահսկվող ուսուցման տեխնիկան կարող է տարածվել շատ ավելի բարդ առաջադրանքների վրա: Օրինակ՝ խոսքի և ձայնի հետ կապված առաջադրանքներ: Պատկերների դասակարգումը, օբյեկտների հայտնաբերումը և չաթի բոտերը որոշ օրինակներ են:

Ստորև ներկայացված վերջին օրինակը օգտագործում է վերահսկվող ուսուցմամբ պատրաստված մոդել՝ մարդկանց խոսող տեսանյութերի իրատեսական կեղծման համար:

Ձեզ կարող է հետաքրքրել, թե ինչպես է պատկերների վրա հիմնված այս բարդ առաջադրանքը կապված դասակարգման կամ ռեգրեսիայի հետ: Դե, դա վերադառնում է աշխարհում ամեն ինչին, նույնիսկ բարդ երևույթին, որը հիմնովին նկարագրվում է մաթեմատիկայի և թվերի միջոցով: Այս օրինակում նեյրոնային ցանցը դեռևս միայն թվեր է թողարկում, ինչպես ռեգրեսիայում: Բայց այս օրինակում թվերը դեմքի ցանցի թվային 3d կոորդինատային արժեքներն են:

Չվերահսկվող ուսուցում

Չվերահսկվող ուսուցման մեջ միայն մուտքային տվյալներըտրամադրվում են օրինակներում: Չկան պիտակավորված օրինակ ելքեր, որոնց նպատակը պետք է լինի: Բայց կարող է զարմանալի լինել իմանալ, որ դեռևս հնարավոր է գտնել բազմաթիվ հետաքրքիր և բարդ օրինաչափություններ, որոնք թաքնված են տվյալների մեջ՝ առանց որևէ պիտակի:

Իրական կյանքում չվերահսկվող ուսուցման օրինակ կարող է լինել տարբեր գույների մետաղադրամների տեսակավորումը առանձին կույտերի մեջ: Ոչ ոք ձեզ չի սովորեցրել, թե ինչպես դրանք առանձնացնել, բայց պարզապես նայելով դրանց առանձնահատկություններին, ինչպիսիք են գույնը, կարող եք տեսնել, թե որ գույնի մետաղադրամներն են առնչվումև խմբավորել դրանք իրենց ճիշտ խմբերում:

Չվերահսկվող ուսուցումը կարող է ավելի դժվար լինել, քան վերահսկվող ուսուցումը, քանի որ վերահսկողության հեռացումը նշանակում է, որ խնդիրը դարձել է ավելի քիչ սահմանված: Ալգորիթմը ավելի քիչ կենտրոնացած պատկերացում ունի այն մասին, թե ինչ օրինաչափություններ պետք է փնտրել:

Մտածեք դրա մասին ձեր սեփական ուսուցման մեջ: Եթե ​​դուք սովորեիք կիթառ նվագել ուսուցչի հսկողության ներքո, դուք արագ կսովորեիք՝ վերօգտագործելով վերահսկվող գիտելիքներընոտաների, ակորդների և ռիթմերի մասին: Բայց եթե դուք սովորեցնեիք միայն ինքներդ ձեզ, ապա ձեզ համար շատ ավելի դժվար կլինի իմանալ, թե որտեղից սկսել:

Լինելով անվերահսկելի laissez-faire ուսուցման ոճով, դուք սկսում եք մաքուր թերթիկից ավելի քիչ կողմնակալությամբ և նույնիսկ կարող եք գտնել խնդիրը լուծելու նոր, ավելի լավ միջոց: Հետևաբար, սա է պատճառը, որ չվերահսկվող ուսուցումը նաև հայտնի է որպես գիտելիքի բացահայտում: Չվերահսկվող ուսուցումը շատ օգտակար է հետախուզական տվյալների վերլուծություն իրականացնելիս:

Չպիտակավորված տվյալների մեջ հետաքրքիր կառուցվածքները գտնելու համար մենք օգտագործում ենք խտության գնահատում: Ամենատարածված ձեւըկլաստերավորումն է։ Ի թիվս այլոց, կան նաև չափականության կրճատում, թաքնված փոփոխական մոդելներ և անոմալիաների հայտնաբերում: Ավելի բարդ չվերահսկվող տեխնիկան ներառում է նեյրոնային ցանցեր, ինչպիսիք են Auto-encoders-ը և Deep Belief Networks-ը, բայց մենք չենք անդրադառնա դրանց այս ներածական բլոգում:

Կլաստերավորում

Չվերահսկվող ուսուցումը հիմնականում օգտագործվում է կլաստերի համար: Կլաստերավորումը տարբեր հատկանիշներով խմբեր ստեղծելու գործողությունն է: Կլաստերավորումը փորձում է գտնել տարբեր ենթախմբերտվյալների հավաքածուի մեջ: Քանի որ սա չվերահսկվող ուսուցում է, մենք սահմանափակված չենք պիտակների որևէ հավաքածուով և ազատ ենք ընտրել, թե քանի կլաստեր ստեղծել: Սա և՛ օրհնություն է, և՛ անեծք։ Կլաստերների ճիշտ քանակ (բարդություն) ունեցող մոդելի ընտրությունը պետք է իրականացվի մոդելի ընտրության էմպիրիկ գործընթացի միջոցով:

Ասոցիացիա

Association Learning-ում դուք ցանկանում եք բացահայտել ձեր տվյալները նկարագրող կանոնները: Օրինակ, եթե մարդը դիտում է A տեսանյութը, նա հավանաբար կդիտի B տեսանյութը: Ասոցիացիայի կանոնները կատարյալ են այնպիսի օրինակների համար, ինչպիսիք են սա, որտեղ դուք ցանկանում եք գտնել առնչվող նյութեր:

Անոմալիաների հայտնաբերում

հազվագյուտ կամ անսովոր տարրերի նույնականացում, որոնք տարբերվում են տվյալների մեծամասնությունից: Օրինակ՝ ձեր բանկը կօգտագործի սա՝ ձեր քարտում խարդախ գործողությունները հայտնաբերելու համար: Ծախսելու ձեր սովորական սովորությունները կհայտնվեն վարքագծերի և արժեքների նորմալ տիրույթում: Բայց երբ ինչ-որ մեկը փորձում է գողանալ ձեզնից՝ օգտագործելով ձեր քարտը, վարքագիծը կտարբերվի ձեր սովորական օրինակից: Անոմալիաների հայտնաբերումն օգտագործում է չվերահսկվող ուսուցում՝ առանձնացնելու և հայտնաբերելու այս տարօրինակ երևույթները:

Չափերի կրճատում

Չափերի կրճատումը նպատակ ունի գտնել ամենակարևոր հատկանիշները՝ սկզբնական հատկանիշը իջեցնելու ավելի փոքր ավելի արդյունավետ հավաքածուի, որը դեռևս կոդավորում է կարևոր տվյալները:

Օրինակ, լողափ այցելուների թիվը կանխատեսելիս մենք կարող ենք օգտագործել ջերմաստիճանը, շաբաթվա օրը, ամիսը և այդ օրվա համար նախատեսված իրադարձությունների քանակը որպես մուտքագրում: Բայց ամիսը կարող է իրականում կարևոր չլինել այցելուների թիվը կանխատեսելու համար:

Նման անհամապատասխան առանձնահատկությունները կարող են շփոթեցնել Machine Leaning ալգորիթմները և դարձնել դրանք ավելի քիչ արդյունավետ և ճշգրիտ: Չափերի կրճատման միջոցովբացահայտվում և օգտագործվում են միայն ամենակարևոր հատկանիշները: Հիմնական բաղադրիչի վերլուծությունը (PCA) սովորաբար օգտագործվող տեխնիկա է:

Օրինակներ

Իրական աշխարհում կլաստերավորումը հաջողությամբ օգտագործվել է նոր տեսակի աստղ հայտնաբերելու համար՝ հետազոտելով, թե աստղերի ենթախմբերը ավտոմատ կերպով ձևավորվում են աստղերի բնութագրերի հիման վրա: Մարքեթինգում այն ​​պարբերաբար օգտագործվում է հաճախորդների վարքագծի և բնութագրերի հիման վրա նմանատիպ խմբերի մեջ խմբավորելու համար:

Ասոցիացիայի ուսուցումն օգտագործվում է առնչվող առարկաներ առաջարկելու կամ գտնելու համար: Ընդհանուր օրինակ է շուկայական զամբյուղի վերլուծությունը: Շուկայական զամբյուղի վերլուծության մեջ ասոցիացիայի կանոններ են հայտնաբերվել, որոնք կանխատեսում են այլ ապրանքներ, որոնք հաճախորդը, ամենայն հավանականությամբ, կգնի՝ հիմնվելով այն բանի վրա, թե ինչ է նրանք տեղադրել իրենց զամբյուղում: Amazon-ն օգտագործում է սա: Եթե ​​դուք նոր նոութբուք եք դնում ձեր զամբյուղում, նրանք խորհուրդ են տալիս այնպիսի իրեր, ինչպիսիք են նոութբուքի պատյանը՝ համաձայն իրենց ասոցիացիայի կանոնների:

Անոմալիաների հայտնաբերումը լավ է համապատասխանում այնպիսի սցենարների, ինչպիսիք են խարդախության հայտնաբերումը և չարամիտ ծրագրերի հայտնաբերումը:

Կիսավերահսկվող ուսուցում

Կիսավերահսկվող ուսուցումը վերահսկվող և չվերահսկվող մոտեցումների խառնուրդ է: Ուսուցման գործընթացը սերտորեն չի վերահսկվում յուրաքանչյուր մուտքագրման օրինակով, բայց մենք նաև թույլ չենք տալիս, որ ալգորիթմն անի իր գործը և հետադարձ կապի ձև չտրամադրի: Կիսավերահսկվող ուսուցումը տանում է միջին ճանապարհը:

Հնարավորություն ունենալով միավորել փոքր քանակությամբ պիտակավորված տվյալներ շատ ավելի մեծ չպիտակավորված տվյալների հետ այն նվազեցնում է բավականաչափ պիտակավորված տվյալներ ունենալու բեռը: Հետևաբար, այն բացում է ավելի շատ խնդիրներ, որոնք պետք է լուծվեն մեքենայական ուսուցման միջոցով:

Generative Adversarial Networks

Generative Adversarial Networks-ը (GANs) վերջերս առաջընթաց է գրանցել՝ անհավատալի արդյունքներով: GAN-ներն օգտագործում են երկու նեյրոնային ցանց՝ գեներատորև խտրական: Գեներատորը արտադրում է արդյունք, իսկ խտրականությունը քննադատում է այն: Իրար դեմ կռվելով նրանք երկուսն էլ ավելի հմուտ են դառնում:

Օգտագործելով ցանց և՛ մուտքագրում, և՛ մեկ այլ՝ ելքեր ստեղծելու համար, կարիք չկա, որ մենք ամեն անգամ հստակ պիտակներ տրամադրենք, և այդպիսով այն կարող է դասակարգվել որպես կիսավերահսկվող:

Օրինակներ

Կատարյալ օրինակ է բժշկական սկանավորումները, ինչպիսիք են կրծքագեղձի քաղցկեղի սկանավորումները: Դրանց պիտակավորման համար անհրաժեշտ է վերապատրաստված մասնագետ, որը ժամանակատար է և շատ թանկ: Փոխարենը, փորձագետը կարող էպիտակավորել կրծքագեղձի քաղցկեղի սկանավորման ընդամենը մի փոքր հավաքածու, և կիսավերահսկվող ալգորիթմը կկարողանա օգտագործել այս փոքր ենթաբազմությունը և կիրառել այն ավելի մեծ հավաքածուի վրա սկանավորումների.

Ինձ համար GAN-ները կիսավերահսկվող ուսուցման ամենատպավորիչ օրինակներից են: Ստորև բերված է մի տեսանյութ, որտեղ Generative Adversarial Network-ը օգտագործում է չվերահսկվող ուսուցում` մի պատկերից մյուսը կողմերը քարտեզագրելու համար:

Ամրապնդման ուսուցում

Մեքենայական ուսուցման վերջնական տեսակն իմ ամենասիրվածն է: Այն ավելի քիչ տարածված է և շատ ավելի բարդ, բայց այն հանգեցրել է անհավանական արդյունքների: Այն որպես այդպիսին չի օգտագործում պիտակներ, փոխարենը օգտագործում է պարգևներ սովորելու համար:

Եթե ​​դուք ծանոթ եք հոգեբանությանը, ապա դուք լսել եք ուժեղացման ուսուցման մասին: Եթե ​​ոչ, դուք արդեն կիմանաք հայեցակարգը այն բանից, թե ինչպես ենք մենք սովորում առօրյա կյանքում: Այս մոտեցման մեջ պատահական դրական և բացասական արձագանքները օգտագործվում են վարքագիծը ամրապնդելու համար: Մտածեք դրա մասին, ինչպես շուն վարժեցնելը, լավ վարքագիծը պարգևատրվում է հյուրասիրությամբ և ավելի տարածված է դառնում: Վատ պահվածքը պատժվում է և դառնում ավելի քիչ տարածված: Այս պարգևատրման դրդված վարքագիծը առանցքային է ուժեղացման ուսուցման մեջ:

Սա շատ նման է նրան, թե ինչպես մենք՝ որպես մարդիկ, նույնպես սովորում ենք: Մեր ողջ կյանքի ընթացքում մենք դրական և բացասական ազդանշաններ ենք ստանում և անընդհատ սովորում դրանցից: Մեր ուղեղի քիմիական նյութերը այս ազդանշանները ստանալու բազմաթիվ եղանակներից մեկն են: Երբ ինչ-որ լավ բան է տեղի ունենում, մեր ուղեղի նեյրոններն ապահովում են դրական նեյրոհաղորդիչների, ինչպիսին է դոֆամինը, ինչը ստիպում է մեզ լավ զգալ, և մենք ավելի հավանական է կրկնել այդ հատուկ գործողությունը: Մեզ մշտական ​​վերահսկողություն պետք չէ սովորելու համար, ինչպես վերահսկվող ուսուցման ժամանակ: Միայն երբեմն ուժեղացման ազդանշաններ տալով՝ մենք դեռ շատ արդյունավետ ենք սովորում:

Ուժեղացման ուսուցման ամենահետաքրքիր մասերից մեկն այն է, որ առաջին քայլն է ստատիկ տվյալների հավաքածուների ուսուցումից և դինամիկ, աղմկոտ տվյալներով հարուստ միջավայրեր օգտագործելու փոխարեն: Սա մեքենայական ուսուցումն ավելի է մոտեցնում մարդկանց կողմից օգտագործվող ուսուցման ոճին: Աշխարհը պարզապես մեր աղմկոտ, բարդ տվյալների հարուստ միջավայրն է:

Խաղերը շատ տարածված են Reinforcement Learning հետազոտության մեջ: Նրանք ապահովում են իդեալական տվյալների հարուստ միջավայր: Խաղերի միավորները իդեալական պարգևատրման ազդանշաններ են՝ պարգևատրման դրդապատճառներով վարքագիծ վարելու համար: Բացի այդ, ժամանակը կարող է արագացնել սիմուլյացված խաղի միջավայրում՝ ընդհանուր մարզման ժամանակը նվազեցնելու համար:

Ամրապնդման ուսուցման ալգորիթմը պարզապես նպատակ ունի առավելագույնի հասցնել իր պարգևները՝ կրկին ու կրկին խաղալով խաղը: Եթե ​​դուք կարող եք խնդիրը ձևակերպել հաճախակի «միավորով» որպես պարգև, ապա այն, ամենայն հավանականությամբ, հարմար կլինի ուժեղացման ուսուցմանը:

Օրինակներ

Ամրապնդման ուսուցումը այնքան էլ չի օգտագործվել իրական աշխարհում, քանի որ այն նոր և բարդ է: Բայց իրական աշխարհի օրինակն է ամրապնդման ուսուցման օգտագործումը տվյալների կենտրոնի գործարկման ծախսերը նվազեցնելու համար՝ հովացման համակարգերն ավելի արդյունավետ կերպով վերահսկելու միջոցով: Ալգորիթմը սովորում է օպտիմալ քաղաքականություն, թե ինչպես վարվել էներգիայի նվազագույն ծախսերը ստանալու համար: Որքան ցածր է արժեքը, այնքան ավելի շատ պարգև է ստանում:

Հետազոտության մեջ այն հաճախ օգտագործվում է խաղերում: Կատարյալ տեղեկատվության խաղերը (որտեղ դուք կարող եք տեսնել շրջակա միջավայրի ամբողջ վիճակը) և անկատար տեղեկատվության (որտեղ պետության մասերը թաքնված են, օրինակ՝ իրական աշխարհը) երկուսն էլ տեսել են անհավանական հաջողություններ, որոնք գերազանցում են մարդկանց:

Google DeepMind-ն օգտագործել է ամրապնդման ուսուցում հետազոտություններում՝ Go և Atari խաղեր խաղալու համար գերմարդկային մակարդակներում: