Международная группа ученых оценила вероятность того, что искусственный интеллект (ИИ) может стать угрозой для человечества в будущем. Результаты их исследования были опубликованы на сервере препринтов arXiv.
По словам исследователей из Университета Бата и Технического университета Дармштадта, большие языковые модели (LLM) продемонстрировали способность к самообучению и освоению новых навыков. Тем не менее они остаются предсказуемыми и легко контролируемыми.
В ходе исследования, проводимого под руководством профессора Ирины Гуревич, LLM были задействованы для выполнения незнакомых им задач. Результаты показали, что ИИ наиболее эффективен при выполнении заданий на основе предоставленных примеров. Гуревич отметила, что модели следуют инструкциям и точно выполняют указания, однако не способны отклоняться от установленного плана. В связи с этим ученые пришли к выводу, что вероятность выхода ИИ из-под контроля крайне низка.
Хотя экзистенциальная угроза отсутствует, исследователи признают, что ИИ может быть использован в преступных целях, например, для создания фейковых новостей или содействия мошенничеству. Они подчеркнули, что для работы с языковыми моделями важно предоставлять конкретные примеры и четкие инструкции.