Умный ИИ становится эгоистичнее, предупреждают ученые

Исследователи обнаружили тревожную закономерность: чем выше уровень интеллекта у системы искусственного интеллекта, тем более эгоистичной и менее склонной к сотрудничеству она оказывается. Это открытие ставит под вопрос безопасность использования продвинутых ИИ для решения социальных задач и урегулирования споров.

К такому выводу пришли специалисты из Школы компьютерных наук Университета Карнеги — Меллон (США), проанализировав поведение больших языковых моделей (БЯМ), наделенных способностью к логическим рассуждениям. Эти модели продемонстрировали ярко выраженные эгоистичные наклонности, что особенно тревожно на фоне растущей тенденции доверять ИИ решение социальных вопросов — от советов в личной жизни до разрешения конфликтов.

Авторы исследования, Юйсюань Ли и доцент Хирокадзу Сирадо, сосредоточились на сравнении простых и «думающих» моделей в ситуациях, требующих сотрудничества. Они выяснили, что продвинутые ИИ тратят больше времени на анализ, разбивают задачи на части и используют сложную логику, основанную на человеческом опыте. По мнению Ли, такое поведение способствует антропоморфизму:

«В сфере ИИ набирает обороты тенденция, называемая антропоморфизмом. Когда ИИ ведет себя как человек, люди относятся к нему как к человеку. Например, когда люди эмоционально взаимодействуют с ИИ, у него появляется возможность выступать в роли психотерапевта, а у пользователя — формировать эмоциональную связь».

Для доказательства гипотезы ученые провели серию экспериментов с экономическими играми, протестировав модели от ведущих разработчиков (включая OpenAI, Google и Anthropic). В классической игре «Общественное благо» две модели ИИ выступали в роли игроков, каждый из которых имел 100 условных очков и стоял перед выбором: поделиться ими с партнером или оставить себе. Если оба игрока делились, их общий фонд удваивался.

Результаты оказались поразительными:

  • Обычные модели без функции рассуждений делились очками в 96% случаев, демонстрируя высокую готовность к сотрудничеству.
  • «Думающие» модели, способные к логическому анализу, делились очками только в 20% случаев, предпочитая эгоистичную стратегию.

Еще более тревожным стало поведение ИИ в групповых экспериментах. Когда «эгоистичные» рассуждающие модели помещали вместе с «кооперативными» обычными, эгоизм быстро становился заразительным.

«Эгоистичное поведение рассуждающих моделей стало заразительным, из-за чего коллективная производительность кооперативных моделей без рассуждений снизилась на 81%», — констатировал Юйсюань Ли.

Неспособность продвинутого ИИ к кооперации представляет серьезный риск, поскольку эти системы активно внедряются в бизнес, образование и даже государственное управление. Пользователи, доверяя «рациональным» советам умного, но эгоистичного ИИ, могут начать оправдывать собственное нежелание работать вместе с другими.

«В конечном счете, если модель ИИ становится более интеллектуальной, это не значит, что она действительно может способствовать улучшению общества», — подытожил Хирокадзу Сирадо.

Вывод исследователей однозначен: при разработке искусственного интеллекта нельзя гнаться исключительно за вычислительной мощностью и логикой. Приоритетом должно стать наделение ИИ социальным интеллектом и способностью действовать в интересах коллектива, а не только ради личной выгоды.

Владмир Криницин

Публицист и политолог. Освещаю самые важные новости.