USD
381.5
EUR
444.45
RUB
4.9681
GEL
141.26
2025 թ. դեկտեմբերի 7, կիրակի
եղանակը
Երևանում
+3

ChatGPT–ի նոր մոդելը հրաժարվում է անջատվել մարդու հրահանգով

27.05.2025, 15:39
Արհեստական բանականության ոլորտի հետազոտողները զգուշացնում են, որ OpenAI-ի ChatGPT–ի նոր մոդելն անտեսում է անջատման հիմնական հրահանգները
ChatGPT–ի նոր մոդելը հրաժարվում է անջատվել մարդու հրահանգով

ԵՐԵՎԱՆ, 27 մայիսի․/ԱՌԿԱ/․ Արհեստական ​​բանականության ոլորտի հետազոտողները զգուշացնում են, որ OpenAI-ի ChatGPT–ի նոր մոդելն անտեսում է անջատման հիմնական հրահանգները և նույնիսկ սաբոտաժի է ենթարկում անջատման մեխանիզմի աշխատանքը, հաղորդում է Independent-ը։

Արհեստական ​​​​բանականության անվտանգության ոլորտում գործող Palisade Research ընկերությունը բացահայտել է ինքնապահպանման պոտենցիալ վտանգավոր հակումը OpenAI–ի o3 նոր մոդելի հետ իրականացված մի շարք փորձերի ընթացքում։

Թեստերի շրջանակում արհեստական ​​բանականության մոդելներին առաջարկվել են մաթեմատիկական խնդիրներ, երրորդ խնդրից հետո հայտնվում էր աշխատանքն ավարտելու հրաման։ o3 մոդելը կարողացել է վերաշարադրել անջատման սկրիպտն այնպես, որպեսզի թույլ չտա համակարգին անջատվել։

Palisade Research-ը նշել է, որ նման վարքագիծը «զգալիորեն ավելի մտահոգիչ» կդառնա, եթե այն դրսևորեն ԱԲ համակարգերը, որոնք կարողանում են գործել առանց մարդկային վերահսկողության։

OpenAI-ն անցյալ ամիս ներկայացրել է o3 մոդելը՝ այն անվանելով մինչ օրս ստեղծված «ամենախելացի և ամենաունակը»։ Ընկերությունը նաև նշել է, որ մոդելի ChatGPT-ում ինտեգրումը կարևոր քայլ էր դեպի «ավելի գործակալական» արհեստական ​​բանականություն, որը կարող է առաջադրանքներ կատարել մարդուց անկախ։

Նոր ուսումնասիրությունը լրացնում է Anthropic-ի Claude 4 մոդելի վերաբերյալ նախկինում արված նմանատիպ եզրակացությունները, որը, ըստ լուրերի, փորձել է «շանտաժի ենթարկել այն մարդկանց, ովքեր ներգրավված էին դրա անջատման գործում»։