Сб. Ноя 23rd, 2024

Этот чат, подозревают они, может открыть ящик Пандоры.

Стало известно, что Илон Маск и не только он рекомендуют приостановить разработку искусственного интеллекта. В число противников входят также сооснователь Apple Стив Возняк, гендиректор Stability AI Эмод Мастак, писатель Юваль Ной Харари, генеральный директор Conjecture Коннор Лихи и другие, передает inbusiness.kz со ссылкой на открытое письмо, под которым они подписались.

Авторы документа призвали мир приостановить разработку искусственного интеллекта, объясняя это рисками для человечества.

Почему все боятся этого стартапа?

Как известно, недавно Маск набирал команду для разработки конкурента ChatGPT, а ранее был даже соучредителем OpenAI, но в 2018 году покинул стартап, назвав его «ужасно хорошим».

«Мы можем наслаждаться «летом ИИ», пожиная плоды, разработанные этой системой, но при этом давая шанс обществу адаптироваться. Другие потенциально опасные технологии общество поставило на паузу, точно так же нам надо поступить и с искусственным интеллектом – наслаждаться долгим «летом» с ИИ, а не бросаться в «осень» неподготовленными», – написано в том письме.

Его опубликовал некоммерческий институт future of life, в тексте приведены данные исследования, которые говорят о серьезной опасности для человечества: описаны риски для человечества и цивилизации со стороны конкурентоспособных систем ИИ, речь идет о влиянии на экономические и политические процессы. Также в письме содержится призыв к разработчикам работать с политиками над управлением и регулирующими органами искусственного интеллекта. Подписанты отмечают, что в наши дни нет ничего, что могло бы это регулировать. Сегодня лаборатории застряли в погоне за разработкой все более мощных цифровых умов, которые никто — даже их создатели — не может надежно контролировать.

Глава компании OpenAI Сэм Альтман признается, что и сам «немного боится», что ИИ может негативно сказаться на обществе:

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми».

В письме спрашивается, должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли автоматизировать все рабочие места? Должны ли развивать нечеловеческие умы, которые в конечном итоге могут превзойти человечество численностью и заменить его? Должны ли мы рисковать потерей контроля над нашей цивилизацией?

В недавнем заявлении OpenAI относительно искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, а для достижения наилучших результатов нужно ограничить скорость создания новых моделей ИИ».

Развитие ИИ теперь под вопросом?

В письме призывают все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую ​​паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

Эта пауза должна использоваться для разработки и внедрения протоколов безопасности для усовершенствованного проектирования искусственного интеллекта. Эти протоколы должны тщательно контролироваться независимыми внешними экспертами, а также давать гарантии, что системы, придерживающиеся их, безопасны.

«Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к ящику Пандоры, который вскроет непредсказуемые последствия», – утверждается в открытом письме.

Напомним, ранее стало известно, что Европол увидел опасность в применении ChatGPT.


Источник: inbusiness.kz