7 svarbiausios naujienos generatyvinio dirbtinio intelekto srityje

Parengta pagal mūsų partnerės „Microsoft“ informaciją.

Pernai pažanga generatyvinio dirbtinio intelekto srityje buvo akivaizdi. „Microsoft Copilot“ įrankis padėjo vartotojams kurti tikroviškus vaizdus, apibendrinti susitikimus, padėti ruošti verslo pasiūlymus ar paprasčiausiai siūlė vakarienės idėjas pagal šaldytuve turimus produktus. Tokios plačios generatyvinio dirbtinio intelekto galimybės itin palengvina tam tikras užduotis ar procesus, tačiau tuo pat metu minėtasis progresas kelia ir naujus iššūkius. Būtent dėl šios priežasties „Microsoft“ visai neseniai paskelbė pirmąją Atsakingo dirbtinio intelekto (toliau – ADI) skaidrumo ataskaitą. Bendrovė taip pat pristatė ir naują platformą „Azure AI“, padedančią užtikrinti įmonių dirbtinio intelekto programų kokybę bei apsaugoti jas nuo netinkamo panaudojimo. Akivaizdu, kad pastarieji metai dirbtiniam intelektui buvo vieni svarbiausių. Tad dalinamės svarbiausiomis naujienomis ir pokyčiais generatyvinio dirbtinio intelekto srityje, parengtais remiantis „Microsoft“ atsakingo dirbtinio intelekto vadovės Natashos Crampton įžvalgomis.

1. Atsakingam dirbtiniam intelektui – strateginis prioritetas

Atsakingas dirbtinis intelektas – visų „Microsoft“ darbuotojų atsakomybė. Pavyzdžiui, kiekvienas „Microsoft“ darbuotojas, prisidedantis prie generatyvinių dirbtinio intelekto programų kūrimo, privalo laikytis bendrovės Atsakingo dirbtinio intelekto standarto. Standarte galima rasti ir nurodymus, kaip įvertinti galimą naujų dirbtinio intelekto taikomųjų programų poveikį, sukurti planus valdyti netikėtai atsiradusius sutrikimus, kurie paaiškėja pradėjus naudoti programas, ir nustatyti apribojimus ar pakeitimus, kad klientai, partneriai ir dirbtinio intelekto taikomąsias programas naudojantys žmonės galėtų priimti pagrįstus sprendimus.

Atsakingo dirbtinio intelekto reikalavimai turi būti integruojami į produktų kūrimą nuo pat pradžių. Visi darbuotojai apie šiuos aspektus turi galvoti visuose proceso etapuose. „Microsoft“ investavo į privalomus sąmoningumo ir atsakingumo mokymus – praėjusių metų pabaigoje 99 proc. darbuotojų buvo baigę Atsakingo dirbtinio intelekto mokymo modulį.

2. Būtina bandyti ir adaptuoti

Naujų dirbtinio intelekto produktų kūrimas yra dinamiškas. Siekiant sukurti generatyvinį dirbtinį intelektą, reikėjo greitai integruoti klientų atsiliepimus, gautus iš dešimčių bandomųjų programų, nuolat bendrauti su klientais. Tai padėjo suprasti ne tik tai, kokios problemos gali iškilti, kai naująją technologiją pradės naudoti daugiau žmonių, bet ir sužinoti, kaip galima būtų pagerinti naudojimosi patirtį.

Būtent šio proceso metu „Microsoft“ nusprendė pasiūlyti skirtingus pokalbio stilius – kūrybiškesnį, labiau subalansuotą ar tikslesnį režimą – kaip „Bing“ paieškos sistemos „Copilot“ dalį. Svarbu atlikti eksperimentų ciklą, kurio metu galima viską išbandyti. Iš to mokomasi ir produktas yra adaptuojamas.

3. Centralizavimas paspartins procesus

Bendrovei „Microsoft“ pristačius „Microsoft Copilot“ ir pradėjus integruoti šias dirbtiniu intelektu paremtas patirtis visuose savo produktuose, prireikė labiau centralizuotos sistemos, kuri užtikrintų, kad visi išleidžiami produktai atitinktų tą pačią aukštą kartelę. Nebuvo prasmės išradinėti dviračio iš naujo su kiekvienu produktu, todėl bendrovė kuria vieną Atsakingo dirbtinio intelekto technologijų platformą „Azure AI“, kad komandos galėtų remtis tais pačiais įrankiais ir procesais.

Be to, „Microsoft“ Atsakingo dirbtinio intelekto ekspertai centralizavo produktų išleidimą ir vertinimą. Komanda peržiūri veiksmus, kuriuos taikė produktų kūrimo grupės, kad kiekviename technologijų partijos lygmenyje, prieš išleidžiant produktą, išleidimo metu ir po išleidimo į rinką, remdamasi bendru sutarimu pagrįsta sistema,  nustatytų, įvertintų ir valdytų galimą generatyvinio dirbtinio intelekto keliamą riziką. Jie taip pat atsižvelgia į duomenis, surinktus bandymų metu, modeliuojant grėsmes ir „raudonąsias komandas“ – metodas, kuriuo siekiama išbandyti naują generatyvinio dirbtinio intelekto technologiją, bandant atšaukti arba manipuliuoti saugos funkcijomis.

Centralizavus šį peržiūros procesą, tapo lengviau aptikti ir sumažinti galimas pažeidžiamas vietas visame produktų portfelyje, sukurti geriausią patirtį ir užtikrinti savalaikį dalijimąsi informacija visoje bendrovėje ir su klientais bei kūrėjais už „Microsoft“ ribų.

4. Piktnaudžiavimas vaizdo klastotėmis: kaip išvengti?

Dirbtinio intelekto sistemos tapo patraukliu įrankiu kuriant dirbtinius vaizdo, garso įrašus ir vaizdus, kuriuos sunku atskirti nuo tikrų, todėl išaugo būtinybė nustatyti dirbtinio intelekto sukurtos informacijos kilmę arba šaltinį.

Šių metų vasarį „Microsoft“ kartu su 19 kitų bendrovių susitarė dėl įsipareigojimų, kuriais siekiama kovoti su apgaulingu dirbtinio intelekto naudojimu ir galimu piktnaudžiavimu „išmaniosiomis vaizdo klastotėmis“ 2024 m. rinkimuose visame pasaulyje. Į šią funkciją įtraukiami procesai, skatinantys blokuoti piktnaudžiavimo užuominas, kuriomis siekiama sukurti netikrus vaizdus, skirtus klaidinti visuomenę, įterpti metaduomenis, kad būtų galima nustatyti vaizdo kilmę ir numatyti mechanizmus, pagal kuriuos politiniai kandidatai galėtų pranešti apie savo vaizdo klastotes.

Bendrovė „Microsoft“ sukūrė ir įdiegė medijos kilmės sužinojimo galimybes arba „turinio įgaliojimus“, kurie leidžia naudotojams patikrinti, ar vaizdas arba vaizdo įrašas buvo sukurtas dirbtinio intelekto, naudojant kriptografinius metodus, skirtus pažymėti ir patvirtinti dirbtinio intelekto sukurtą turinį metaduomenimis apie jo šaltinį ir istoriją, vadovaujantis atviru techniniu standartu. „Microsoft“ dirbtinio intelekto laboratorija „AI for Good Lab“ taip pat daug dėmesio skiria išmaniųjų vaizdo klastočių nustatymui, blogų veikėjų sekimui ir jų taktikos analizei. Šie klausimai svarbūs ne tik technologijų bendrovėms, tai – visos platesnės visuomenės iššūkis.

5. Atsakingo dirbtinio intelekto (ADI) įrankiais dalinkitės su klientais

Siekdama pagerinti dirbtinio intelekto modelių rezultatų kokybę ir padėti apsisaugoti nuo piktavališko generatyvinių dirbtinio intelekto sistemų naudojimo, „Microsoft“ taip pat stengiasi, kad klientai galėtų atsakingai kurti tuos pačius įrankius ir apsaugos priemones, kurias ji naudoja. Tai apima atvirojo kodo ir komercines priemones bei paslaugas, taip pat šablonus ir gaires, padedančias organizacijoms kurti, vertinti, diegti ir valdyti generatyvines dirbtinio intelekto sistemas.

Praėjusiais metais „Microsoft“ išleido „Azure AI Content Safety“ – įrankį, kuris padeda klientams nustatyti ir filtruoti nepageidaujamus dirbtinio intelekto modelių rezultatus, pavyzdžiui, neapykantos, smurto, seksualinio ar savižalos pobūdžio turinį. Neseniai bendrovė papildė „Azure AI Studio“ naujais įrankiais, kurie jau yra arba netrukus bus įdiegti ir padės kūrėjams bei klientams pagerinti savo generatyvinių dirbtinio intelekto sistemų saugumą ir patikimumą.

Tarp jų yra ir naujų funkcijų, leidžiančių klientams atlikti savo programų saugos vertinimus, kurie padeda kūrėjams greitai nustatyti ir pašalinti pažeidimus, atlikti papildomą rizikos ir saugos stebėseną ir apteikti atvejus, kai modelis generuoja melagingus ar išgalvotus duomenis.

6. Būtina pasiruošti galimoms atakomis

Žmonėms susiduriant su vis sudėtingesnėmis dirbtinio intelekto technologijomis, turbūt neišvengiama, kad kai kurie iš jų įvairiais būdais – nuo nepavojingų iki piktavališkų – bandys mesti iššūkį sistemoms. Dėl to atsirado reiškinys, žinomas kaip „pabėgimas iš kalėjimo“ (angl. jailbreaks), kuris technologijų srityje reiškia bandymą apeiti dirbtinio intelekto sistemose įdiegtas saugos priemones.

Prieš išleisdama naujus dirbtinio intelekto produktų atnaujinimus, „Microsoft“ ne tik tiria galimas pažeidžiamumo rizikas, bet ir bendradarbiauja su klientais, siekdama užtikrinti, kad jie taip pat turėtų naujausias priemones, skirtas apsaugoti jų pačių programas.

Pavyzdžiui, „Microsoft“ neseniai suteikė galimybę naudotis naujais modeliais, kurie naudoja modelių atpažinimą, kad aptiktų ir užblokuotų kenkėjiškus „pabėgimus iš kalėjimo“. Kitu modeliu siekiama užkirsti kelią naujo tipo atakoms, kuriomis bandoma įterpti instrukcijas, leidžiančias kam nors perimti dirbtinio intelekto sistemos valdymą.

7. Padėkite informuoti naudotojus apie dirbtinio intelekto galimybes

Nors dirbtinis intelektas jau dabar gali labai palengvinti gyvenimą, jis toli gražu nėra tobulas. Naudotojams pravartu patikrinti informaciją, kurią jie gauna iš dirbtinio intelekto sistemų, todėl „Microsoft“ bet kokio pokalbio metu sukurto rezultato pabaigoje pateikia nuorodas į cituojamus šaltinius.

Nuo 2019 m. „Microsoft“ skelbia „skaidrumo pastabas“, kuriose bendrovės platformos paslaugų vartotojams pateikiama išsami informacija apie galimybes, apribojimus, numatomus naudojimo būdus ir Atsakingo dirbtinio intelekto integravimo bei naudojimo galimybes. Bendrovė taip pat įtraukia naudotojams skirtus produktus, pavyzdžiui, „Copilot“, patogius pranešimus, kuriuose pateikiama svarbi informacija tokiomis temomis kaip rizikos nustatymas, DI klaidų ar netikėto turinio generavimo tikimybė ir primenama, kad žmonės sąveikauja su DI.

Kadangi generatyvinė DI technologija ir jos naudojimo būdai vis labiau plinta, labai svarbu ir toliau stiprinti sistemas, prisitaikyti prie naujo reglamentavimo, atnaujinti procesus ir toliau stengtis kurti DI sistemas, kurios užtikrintų žmonių pageidaujamą patirtį.

Dirbtinio intelekto naujienos su LABBIS

Šiuo straipsniu norime supažindinti su svarbiausiomis generatyvinio dirbtinio intelekto naujienomis.

Taip pat primename. kad norinčius būti pirmaisiais, išbandžiusiais verslo valdymo sistemas, kuriose yra integruotas dirbtinis intelektas, kviečiame kreiptis. Nes mes, LABBIS, esame pirmieji Lietuvoje, integravę „ChatGPT“ verslo valdymo sistemose ir pirmieji Lietuvoje sukūrėme dirbtiniu intelektu paremtą žmogiškųjų išteklių prognozavimo sistemą.

Visos paslaugos Tapti klientu