TL;DR LLM-ները արագորեն դարձել են հասուն տեխնոլոգիա, որը շատ հասանելի է ընդհանուր մշակողների համար. այն ունի առաջադեմ լեզվական հնարավորություններ, բայց նրա հիմնավորումը բավական նորածին վիճակում է: Թե որքանով են դրա ներկա սահմանափակումներն արգելող, մեծապես կախված է արտադրանքից և հիմնականում կախված է վերջնական օգտագործողի «վերջին մղոն» կարողությունից (AI-ի ստացված արդյունքները մեծացնելու/ուղղելու կարողությունը): Որոշումների և ինտեգրման փորձագետների սահմանափակ աշխարհը (օրինակ՝ OpenAI API) LLM-ի սահմանափակ «պատճառաբանելու» կարողության հզոր ընդլայնումն է: Վերջապես, երբ մտածում ենք LLM-ի մասին, կարևոր է ոչ թե տեխնոլոգիան ներդնել խիստ լեզվական ուղղվածություն ունեցող ծրագրերի մեջ, այլ հաջորդականության առաջացման խնդիրների ավելի լայն տիեզերքի մեջ՝ իրադարձություններ, գործողություններ, վիճակներ և այլն:

Վերջերս տեխնոլոգիական լանդշաֆտը հուզված էր Generative AI-ի առնչությամբ ընդհանուր և հատկապես մեծ լեզվական մոդելների (LLMs) վերաբերյալ, որոնք հիմնականում սնվում են տեխնոլոգիական հսկաների կողմից, ինչպիսիք են OpenAI-ը, Google-ը և Facebook-ը: Հաճույքն անհիմն չէ. կոպիտ ասած, այնտեղ կա:

Ավելի քիչ, քան մեկ տասնամյակ առաջ ML հետազոտությունը խիստ մաթեմատիկական, կոշտ դաշտ էր, որը հիմնված էր բարդ ալգորիթմների վրա: Այնուամենայնիվ, Deep Learning-ի գալուստը և LLMs-ը՝ որպես դրա ամենաառաջադեմ դրսևորումներից մեկը, ML-ն վերածել է բնական գիտության ավելի նման բանի, որը պայմանավորված է ոչ թե հստակ սահմանված մաթեմատիկական հատկություններով, այլ ավելի շուտ կրթված գուշակություններով և փորձերով: Ուղեղի իմ մաթեմատիկական կեսի տեսանկյունից, որը նախընտրում է գործել կանխատեսելի, լավ բնութագրված բանաձևերի աշխարհում, այս տեղաշարժը ափսոսանք է պատճառում, բայց դա անհերքելիորեն նշանակում է դաշտում թռիչք առաջ՝ նրա հասունության և օգտակարության նշան:

Միևնույն ժամանակ և նույն գծով, ML-ն ավելի հասանելի դարձավ բոլորի համար՝ նման գաղտնագրության ներկայիս վիճակին: Այսօր գաղտնագրային ալգորիթմների օգտագործումը չի պահանջում հանրահաշվական խմբերի խորը ըմբռնում կամ իմանալ, թե ինչ է Weil զուգավորումը. Նմանապես, կարիք չկա լինել ML փորձագետ՝ այն օգտագործելու արտադրանքի իրականացման մեջ: Այնուամենայնիվ, այս հասանելիությունը չպետք է սխալվի որպես փորձաքննության/փորձի կարիքի մերժում, որն անհրաժեշտ է գեներատիվ AI-ն հաջողությամբ օգտագործելու համար:

LLM-ների շուրջ հասարակական դիսկուրսը հաճախ բևեռացված է: Ոմանք այն նկարագրում են որպես «ստերոիդների վրա ավտոմատ լրացում», անորոշ պնդում, որը քիչ պարզություն է տալիս, և մասնավորապես, «ստերոիդների վրա» տերմինը որոշակի ծանրաբեռնվածություն է անում: Երբ ես հուշում եմ GPT-4-ին ստեղծել Ռուբիկի խորանարդի 3D մոդել, և այն հաջողությամբ կատարում է առաջադրանքը, արդյոք սա որակվում է որպես «ստերոիդներ»: Եթե ​​այո, ապա որո՞նք են այն սահմանները, ինչ ես կարող եմ խնդրել նրան անել: Ընդհակառակը, մյուսները կարծում են, որ LLM-ները կարող են գործնականում ամեն ինչի, մի համոզմունք, որը, հավանաբար, կհանգեցնի հիասթափության, երբ իրականությունը զիջում է:

Անձամբ ես գտնում եմ, որ LLM-ները հզոր գործիք են՝ հնարավորությունների և սահմանափակումների խառնուրդով, որոնք կարող են հակասական լինել.

  • LLM-ն տիրապետում է գիտելիքի անսովոր լայնությանը, որը գերազանցում է ցանկացած մարդուն՝ ելնելով ինտերնետի հսկայական տարածությունից:
  • Նրա լեզվական հմտությունները համարժեք են փորձառու գրողին:
  • Այնուամենայնիվ, նրա տրամաբանական հմտությունները նման են երեք տարեկան երեխային։

Նման անձի հետ շփումը կարող է ապակողմնորոշիչ փորձ լինել, քանի որ մենք երբեք նման մարդ չենք տեսել: Հերթականորեն թվում է, թե մեկը շփվում է կա՛մ բարձրակարգ ինտելեկտի, կա՛մ անփույթ մարդու հետ՝ իրենց տրամադրության տակ գտնվող հանրագիտարանով:

Ես անձամբ օգտագործում եմ LLM-ները իմ ամենօրյա աշխատանքում տարբեր առաջադրանքների և փորձերի համար, ինչը լավ միջոց է նրանց ներկայիս հնարավորությունների և սահմանափակումների էմպիրիկ պատկերացում կազմելու համար: Ամփոփելու համար LLM-ները արտադրանքի մեջ ինտեգրելու իմ ընդհանուր փորձը որպես մեկ բռունցքագիծ. եթե Ձեզ անհրաժեշտ է 90% ճշգրտություն, LLM-ները կարող են գերազանցել ձեր սպասելիքները. սակայն, եթե դուք պահանջում եք 100% ճշգրտություն, դուք, ամենայն հավանականությամբ, հիասթափված կլինեք ամեն քայլափոխի:

Դիտարկենք SQL-ին տիրապետող վերլուծաբան, որը ծանոթ չէ տվյալների բազայի հատուկ սխեմային և SQL բարբառին: Նման դեպքում LLM-ը կարող է արժեքավոր դաշնակից լինել՝ ստեղծելով օրենսգրքի նախագիծ և խնայելով վերլուծաբանի թանկարժեք ժամանակը: Այնուամենայնիվ, գեներացված հարցումը կարող է չկատարվել, կամ արդյունքը կարող է նրբորեն սխալ լինել, ինչը պահանջում է հետագա ուսումնասիրություն: Այս լուծման արժեքը կախված է նրանից, թե արդյոք «բավականին լավ» տարբերակը բավարար է կոնկրետ հավելվածի համար, թե՞ վերջնական օգտագործողը կարող է կատարել «վերջին մղոն» վավերացում և արդյունքների ուղղում: Որպես մեկ այլ օրինակ, երբ խոսքը վերաբերում է այնպիսի առաջադրանքների, ինչպիսին է ամփոփումը, արդյունքները կարող են կատարյալ չլինել, բայց դրանք կարող են չափազանց նախընտրելի լինել, քան տեղեկատվություն չունենալը (ոչ ոք չի կարդա 100 էջ արտագրում) կամ համեմատելի լինի հապճեպ պատրաստված ամփոփագրի հետ (վաճառող. շտապում):

Եթե ​​դուք փնտրում եք 100% ճշգրտություն և տեղյակ չեք SQL-ի մասին, ճիշտ արդյունք ստեղծելու համար LLM-ի օգտագործումը բարդ կլինի և հավանաբար կհանգեցնի մեծ հիասթափության: Դուք պետք է զգույշ սահմանափակեք որոնման տարածքը, որպեսզի խուսափեք սխալներից և հակասություններից կամ պատրաստվեք հիասթափեցնող փորձառությանը:

LLM-ները, ինչպես մարդիկ, ունեն իրենց սահմանները: Երբ որդուս առաջադեմ մաթեմատիկա սովորեցնում էինք, մենք երբեմն հասնում էինք բարդության այն շեմին, որից այն կողմ նա չէր կարողանում հետևել տրամաբանական քայլերին: LLM-ները նմանատիպ երևույթ են ցուցադրում. դրանց սահմանափակումներն ակնհայտ են դառնում, երբ նրանց ներգրավում ես բարդ առաջադրանքների մեջ, օրինակ՝ կոդավորումը: Որոշակի պահի, սխալները շտկելու նրանց փորձերը դառնում են աննպատակ կոդերի վերաշարադրումներ: LLM-ները չեն կարող վարկածներ ձևակերպել, ընդլայնել որոնման շրջանակը կամ փոխել խնդիրների լուծման իրենց մոտեցումը: Այս սահմանափակումները վերաբերում են լեզվական առաջադրանքներին, կոդի և պատկերի ստեղծմանը, ինչը ցույց է տալիս, որ LLM-ների հնարավորություններն այնքան խորը չեն, որքան կարելի է ենթադրել:

Ցանկացած փորձ սովորելու, թե ինչպես օգտագործել LLM-ն, պետք է գործի իրենց հնարավորությունների սահմաններում և լինի քանակական բնույթ, հակառակ դեպքում դուք ոչինչ չեք սովորում: «Սա լավ է երևում» ասելը չի ​​հանդիսանում ուսուցման փորձ: Սա ինձ հիշեցնում է, թե ինչպես են անփորձ ինժեներները մոտենում POC-ին. նրանք նայում են շուկայավարման նյութում գովազդվող հնարավորությունների ցանկին և փորձարկում դրանք: Ահա թե ինչպես եք ստեղծում Forrester-ի հաշվետվություն: Եթե ​​դուք իրականացնում եք POC (հայեցակարգի ապացույց) կոնկրետ տեխնոլոգիայի, դուք պետք է նկատի ունենաք կոնկրետ օգտագործման դեպք՝ հատուկ չափանիշներով, որոնք օգտագործում եք գնահատելու համար:

Որոշ բարդություն առաջանում է LLM-ի կողմից ստեղծված արդյունքների վիճակագրական բնույթից: Եթե ​​հնարավոր լուծումների որոնման տարածքը համեմատաբար նեղ է (օրինակ՝ «Ո՞րն է անհատական ​​դաշնային եկամտահարկը ԱՄՆ-ում»), դուք ամեն անգամ կստանաք էականորեն նույնական պատասխաններ: Այնուամենայնիվ, երբ խնդիրը դառնում է մի փոքր ավելի երկիմաստ (օրինակ, «Ամփոփեք այս շարադրությունը երկու նախադասությամբ»), արդյունքները զգալիորեն կտարբերվեն մեկ կրկնությունից մյուսը: Այս առումով LLM-ների մեջ եզակի ոչինչ չկա. մարդկային լեզուն տխրահռչակ երկիմաստ է: ML հետազոտողների շրջանում, որոնց հանձնարարվել է պատասխանել նախադասությունը բնութագրող բազմակի ընտրության հարցերին, մենք երբեմն տեսնում ենք 60%-ից պակաս համաձայնություն: Ինչպե՞ս կարող ենք ակնկալել, որ LLM-ն ավելի լավ է հանդես գալիս, եթե այն պատրաստված է և վավերացված է մարդկանց կողմից:

Այնուամենայնիվ, LLM-ները նույնիսկ ավելի քիչ կանխատեսելի են, քան մարդիկ: Օրինակ, հաշվի առեք շարադրություն և խնդրեք LLM-ին առաջարկել բարելավումներ: Մի քանի կրկնությունների ընթացքում այն ​​կստեղծի առաջարկությունների համապարփակ ցուցակ: Այնուամենայնիվ, քանի որ այս առաջարկները դառնում են ավելի սուբյեկտիվ և ոչ էական, դուք երբեք չեք ստանա «առաքեք այն» պատասխանը: որը դուք կսպասեիք մարդկային խմբագրից: Մոդելում խելամիտ պաշտպանիչ բազրիքների բացակայությունը բարդացնում է դրա կիրառումը, երբ լուծման որոնման տարածքը լայն է, լուծումը ներառում է բազմաթիվ քայլեր, և այնուամենայնիվ վերջնական արդյունքի որակը կարող է օբյեկտիվորեն գնահատվել:

Չնայած սահմանափակումներին, որոնք կան այժմ և միշտ կլինեն, ոլորտը արագորեն զարգանում է ոչ միայն հիմնական LLM ճարտարապետության, այլ օժանդակ մոտեցումներով: Ավելացումները, ինչպիսիք են գործակալների ինտեգրումը (օրինակ՝ OpenAI պլագինները) ընդլայնում են ոչ միայն այն տվյալները, որոնք LLM-ը կարող է օգտագործել (օրինակ՝ իրական ժամանակում զննարկում), այլ նաև դրա հնարավորությունները, ինչպիսիք են մաթեմատիկական և տվյալների մոդելավորման/մշակման շարժիչները (փորձագետ նախագծված համակարգեր): Այս գործակալական էկոհամակարգի էվոլյուցիան հանդիսանում է հիմնական LLM տեխնոլոգիայի աճի հետաքրքրաշարժ հավելում: Այս գործակալների և փորձագետների կողմից մշակված աշխատանքային հոսքերի էվոլյուցիան, ամենայն հավանականությամբ, կապահովի արտադրանքի կայուն տարբերակում, ավելի շատ, քան AutoGPT-ն և նմանատիպ մոտեցումները: Թեև AutoGPT-ն իր տեղն ունի օժանդակ գործիքների շարքում, նրա կատարողականությունը, ամենայն հավանականությամբ, դժվար կլինի արտադրել, և այն ուժեղացնում է, այլ ոչ թե մեղմացնում, LLM-ների որոշ թույլ կողմերը. մուտքերը. Որքան էլ հուզիչ է լավագույն սցենարը հաքաթոնի միջավայրում, արտադրողականացումը վատագույն դեպքի կառավարումն է:

LLM տեխնոլոգիայի համար արտադրանքի հայտերը դիտարկելիս կարևոր է չսահմանափակել LLM-ների ըմբռնումը միայն լեզվի մշակմամբ: Դրանք ընդհանուր հաջորդականություն գեներացնող ալգորիթմներ են, որոնք ունակ են կառավարել շատ ավելին, քան պարզապես լեզուն (բնական կամ ծրագրավորում): Հաջորդականությունները կարող են ներառել գործողություններ, իրադարձություններ և շատ այլ առարկաներ, այլ ոչ միայն կերպարներ: Օրինակ, ինքնավար վարորդական ընկերությունները օգտագործում են LLM կառուցվածքային մոդելներ՝ կանխատեսելու ճանապարհի «վարքագիծը»՝ մուտքագրումը դիտարկելով որպես պատկերների հաջորդականություն, իսկ ելքը՝ որպես սպասվող վիճակների հաջորդականություն: Այս հասկացողությունը ընդլայնում է LLM տեխնոլոգիայի հնարավոր կիրառությունների շրջանակը:

Վերջապես, ինչպես ցույց է տրված ներքին Google-ի հուշագրում արտահոսած, Generative AI աշխարհ մուտք գործելու խոչընդոտը համեմատաբար ցածր է, և եթե ինչ-որ բան նվազում է: Ավելի փոքր տվյալների հավաքածուների վրա վերապատրաստված փոքր մոդելները կարող են համեմատելի արդյունքներ ստանալ մեծ LLM-ների հետ (օրինակ՝ Facebook-ի LLaMA և Vicuna): Մրցակցային լանդշաֆտը ամրագրված չէ. միակ հավանական խրամատը կարող է լինել որոշ ընկերությունների կամ պետական ​​կանոնակարգերի կողմից նորարարությունների արագությունը: Խոշոր ընկերությունների կողմից կառավարության կողմից սահմանված կանոնակարգերի ներկայիս ճնշումը, իմ կարծիքով, մրցակցային խրամուղի ստեղծելու փորձ է՝ թույլ չտալու փոքր մրցակիցների մուտքը շուկա: Այս ջանքերը, եթե հաջող լինեն, ամենայն հավանականությամբ, խստորեն կվնասեն ԱՄՆ-ում արհեստական ​​ինտելեկտի հետազոտության վիճակին, մինչդեռ քիչ բան են անում այլուր վնասակար հավելվածների մշակումը կանխելու համար: