OpenAI ընկերությունը զգալիորեն կրճատել է արհեստական բանականության իր հզոր մոդելների անվտանգության փորձարկումների համար նախատեսված ժամանակը և ռեսուրսները, ինչն առաջացրել է մտահոգություններ՝ տեխնոլոգիայի վաղաժամ ներդրման և հնարավոր ռիսկերին պատշաճ չարձագանքելու վերաբերյալ․ գրում է Financial Times-ը։
Ըստ կայքի աղբյուրների՝ մոդելների «գնահատման» գործընթացը, որը նախկինում տևում էր ամիսներ, այժմ իրականացվում է ընդամենը մի քանի օրվա ընթացքում։ Փորձարկումները դարձել են ավելի մակերեսային, և ժամանակը՝ սահմանափակ։ Ընկերությունն այժմ պատրաստվում է թողարկել իր նոր o3 մոդելը՝ որոշ փորձարկումների համար տրամադրելով միայն մեկ շաբաթ։
OpenAI-ն մրցակցային ճնշման տակ է՝ պահելու իր դիրքերը տեխնոլոգիական հսկաների՝ Google-ի, Meta-ի և Իլոն Մասկի xAI-ի դեմ մրցակցությունում։ Ընկերության ներսում որոշ փորձարկողներ մտահոգված են․ «Մենք ավելի մանրակրկիտ թեստեր էինք անցկացնում, երբ տեխնոլոգիան այդքան կարևոր չէր։ Հիմա, երբ այն կարող է նաև սպառնալիք ներկայացնել, գործ ունենք արագացրած գործընթացի հետ։ Սա կարող է աղետալի հետևանքներ ունենալ»։
AI անվտանգության համընդհանուր ստանդարտ դեռ գոյություն չունի, սակայն ԵՄ-ն այս տարվա վերջից նախատեսում է պարտադիր դարձնել հզոր մոդելների անվտանգության փորձարկումները։
Համեմատության համար՝ GPT-4 մոդելի թողարկման նախաշեմին փորձարկումները տևել էին շուրջ վեց ամիս։ Այդ մոդելն ուսումնասիրած փորձարկողներից մեկը նշել է, որ որոշ վտանգավոր կարողություններ բացահայտվել են միայն երկու ամիս անց։ Նույն աղբյուրը գնահատել է ընկերության ներկայիս մոտեցումը որպես հանրային անվտանգության անտեսում։