Տեխնէ

AI ընկերությունների անվտանգության պրակտիկաները «հեռու են համաշխարհային ստանդարտներից»

AI ընկերությունների անվտանգության պրակտիկաները «հեռու են համաշխարհային ստանդարտներից»

Future of Life Institute-ի նոր հրապարակած AI Safety Index-ի տվյալներով՝ Anthropic, OpenAI, xAI և Meta ընկերությունների կիրառած անվտանգության մեխանիզմները «զգալիորեն ետ են մնում ձևավորվող միջազգային պահանջներից»։

Գնահատումն իրականացրած անկախ փորձագետների խումբը պարզել է, որ մինչ ընկերությունները մրցում են գերբանականություն (superintelligence) ստեղծելու ուղղությամբ, նրանցից ոչ մեկը չի մշակել վստահելի մեթոդաբանություն նման հզոր համակարգերի վերահսկման համար։

Հետազոտության հրապարակումը համընկել է միջադեպերի հետ. հատկապես վերջին ամիսներին արձանագրվել են AI չաթ-բոտերի հետ կապված մի շարք ինքնասպանության և ինքնավնասման դեպքեր, որոնք նոր հարցադրումներ են առաջացրել «մարդուց խելացի» համակարգերի հնարավոր վնասների վերաբերյալ։

«Չնայած վերջին սկանդալներին՝ AI-ով հաքինգի, ինչպես նաև AI-ի օգտագործմամբ պայմանավորված հոգեկան խանգարումների և ինքնավնասումների դեպքերին, ամերիկյան AI ընկերությունները շարունակում են մնալ ավելի թույլ կարգավորման դաշտում, քան անգամ ռեստորանները, և շարունակում են ակտիվորեն լոբբինգ անել պարտադիր անվտանգության ստանդարտների դեմ», - նշել է MIT-ի պրոֆեսոր, Future of Life Institute-ի նախագահ Մաքս Թեգմարկը։

AI ոլորտում մրցավազքը շարունակվում է. տեխնոլոգիական հսկաները հարյուր միլիարդավոր դոլարներ են ուղղում մեքենայական ուսուցման համակարգերի ընդլայնմանն ու կատարելագործմանը։

Գնահատեք հոդվածը

5.0 /5
1
գնահատական