«Крестный отец ИИ» предостерегает: нейросети могут уничтожить человечество
28.07.2025,
12:27
Возможности искусственного интеллекта (ИИ) неуклонно растут, и многие эксперты допускают, что он станет умнее человек

ЕРЕВАН, 28 июля. /АРКА/. Возможности искусственного интеллекта (ИИ) неуклонно растут, и многие эксперты допускают, что он станет умнее человека, — все страны должны совместно работать над развитием нейросетей, чтобы не допустить уничтожения человечества. Об этом на ежегодной Всемирной конференции по искусственному интеллекту в Шанхае заявил ученый Джеффри Хинтон, известный как «крестный отец» ИИ, пишет РБК со ссылкой на China Times.
Ученый неоднократно предупреждал об угрозе со стороны искусственного интеллекта и в 2023-м уволился из Google, чтобы открыто говорить об этом. В своем выступлении на конференции он сравнивает ИИ с тигренком. «Вообще говоря, держать тигренка в качестве домашнего питомца — плохая идея. И есть два варианта: найти способ научить его никогда не хотеть вас есть или избавиться от него», — сказал Хинтон.
Он подчеркивает, что избавиться от ИИ не получится, поскольку его применение дает преимущества в ряде областей. В таком случае необходимо работать над его развитием таким образом, чтобы искусственный интеллект не захотел «захватить мир», становясь умнее.
Для этого, считает ученый, необходимо сформировать международную исследовательскую сеть по безопасности ИИ. Разные страны, имея разные интересы, могут проводить собственные исследования, но делиться результатами с другими государствами, поясняет он. «В долгосрочной перспективе это может стать самым важным вопросом для человечества. Хорошая новость заключается в том, что с этой проблемой может столкнуться все человечество вместе», — заключил Хинтон.
Также к глобальному сотрудничеству по регулированию в области искусственного интеллекта призвал выступавший на той же конференции премьер-министр Китая Ли Цян. «Мы должны усилить координацию, чтобы как можно скорее сформировать глобальную структуру управления ИИ, которая будет иметь широкий консенсус», — приводит его слова Reuters.
Ученый неоднократно предупреждал об угрозе со стороны искусственного интеллекта и в 2023-м уволился из Google, чтобы открыто говорить об этом. В своем выступлении на конференции он сравнивает ИИ с тигренком. «Вообще говоря, держать тигренка в качестве домашнего питомца — плохая идея. И есть два варианта: найти способ научить его никогда не хотеть вас есть или избавиться от него», — сказал Хинтон.
Он подчеркивает, что избавиться от ИИ не получится, поскольку его применение дает преимущества в ряде областей. В таком случае необходимо работать над его развитием таким образом, чтобы искусственный интеллект не захотел «захватить мир», становясь умнее.
Для этого, считает ученый, необходимо сформировать международную исследовательскую сеть по безопасности ИИ. Разные страны, имея разные интересы, могут проводить собственные исследования, но делиться результатами с другими государствами, поясняет он. «В долгосрочной перспективе это может стать самым важным вопросом для человечества. Хорошая новость заключается в том, что с этой проблемой может столкнуться все человечество вместе», — заключил Хинтон.
Также к глобальному сотрудничеству по регулированию в области искусственного интеллекта призвал выступавший на той же конференции премьер-министр Китая Ли Цян. «Мы должны усилить координацию, чтобы как можно скорее сформировать глобальную структуру управления ИИ, которая будет иметь широкий консенсус», — приводит его слова Reuters.