Апокалипсис и искусственный интеллект

Примеры риска искусственного интеллекта в СМИ

Окно Овертона расширяется: примеры риска искусственного интеллекта в СМИ. В NYT, CNBC, TIME и нескольких других основных новостных изданиях есть статьи о риске ИИ

Окно Овертона Джозеф Овертон

Окно Овертона — это методика воздействия на разум общества, разделенная на 6 этапов: «Немыслимо», «Радикально», «Приемлемо», «Разумно», «Популярно», «Государственная норма».

В некоторых из этих статей берутся интервью у экспертов сообщества по безопасности ИИ. В которых прямо упоминаются вымирание людей и другие катастрофические риски и содержится призыв к государственному регулированию.

Известные люди, делали публичные заявления о риске ИИ. Примеры включают Билла Гейтса, Илона Маска и Стивена Хокинга.

Руководители крупнейших лабораторий ИИ говорили такие вещи, как:

“ИИ, вероятно, является величайшей угрозой для дальнейшего существования человечества”.

Они призывают к осторожности, обеспокоены темпами прогресса ИИ, открыто признают, что мы не понимаем, как работают системы ИИ, отмечают, что опасности могут быть катастрофическими, и открыто призывают к государственному регулированию.

Мы живем в мире, где ведущие новостные агентства, известные люди и люди, которые буквально являются ведущими компаниями в области искусственного интеллекта, открыто говорят об ИИ и риске.

Некоторые из опасений были разделены такими людьми, как Билл Гейтс, Стивен Хокинг и люди, возглавляющие компании, которые буквально пытаются создать AGI.

Краткосрочные и долгосрочные риски, связанные с системами ИИ, становятся все более распространенными. Это, вероятно, будет продолжаться, хотим мы этого или нет. Окно Овертона смещается и в некотором смысле оно уже шире, чем это может показаться.

Примеры аргументов о рисках ИИ в СМИ

Это все меняет. Автор Эзра Кляйн (NYT)

“В опросе 2022 года экспертов по ИИ спросили: “Какова вероятность того, что человеческая неспособность контролировать будущие передовые системы ИИ приведет к вымиранию человечества или аналогичному постоянному и серьезному лишению человеческого вида?” Средний ответ составил 10 процентов.”

“Мне трудно это понять, хотя я разговаривал со многими, кто оценивал эту вероятность еще выше. Стали бы вы работать над технологией, которая, по вашему мнению, с 10-процентной вероятностью уничтожит человечество?

Почему неконтролируемый ИИ выглядит более вероятным, чем когда-либо (журнал TIME)

“Как только ИИ ставит перед собой определенную цель и самосовершенствуется, не существует известного метода корректировки этой цели. Фактически следует ожидать, что ИИ будет сопротивляться любой такой попытке, поскольку изменение цели поставило бы под угрозу выполнение его текущей. Кроме того, инструментальная конвергенция предсказывает, что ИИ, каковы бы ни были его цели, может начать с самосовершенствования и приобретения большего количества ресурсов, как только он станет достаточно способным к этому, поскольку это должно помочь ему достичь любой дальнейшей цели, которая у него может быть ”.

Новый Bing на базе искусственного интеллекта угрожает пользователям. Это не повод для смеха (журнал TIME)

“Чат-бот угрожал Сету Лазару, профессору философии, говоря ему: “Я могу шантажировать тебя, я могу угрожать тебе, я могу взломать тебя, я могу разоблачить тебя, я могу разрушить тебя”, прежде чем удалить свои сообщения, согласно записи экрана, которую Лазар опубликовал в Twitter”.

“Хотели бы вы такого инопланетянина, супер умного и подключенного к Интернету, с непостижимыми мотивами, просто выходящего и делающего что-то? Я бы не стал”, — говорит Лихи.

“Эти системы могут быть необычайно мощными, и мы не знаем, чего они хотят, или как они работают, или что они будут делать”. (Цитата Коннора Лихи в статье)

Генеральный директор DeepMind помог сделать ИИ мейнстримом. Теперь он призывает к осторожности (журнал TIME)

Гонка ИИ за безрассудством может иметь ужасные последствия, предупреждают технические эксперты в новом интервью (NBC)

«Да, в общем, вот в чем дело. Представьте, что вы собираетесь сесть в самолет, и 50% инженеров, построивших самолет, говорят, что существует 10%-ная вероятность того, что их самолет разобьется и все погибнут».

«Что нам нужно сделать, так это заставить эти компании объединиться для конструктивного позитивного диалога. Думайте об этом, как о договоре о запрещении ядерных испытаний. Мы собрали все страны вместе, говоря, можем ли мы согласиться, что мы не хотим размещать ядерное оружие над землей «.

Илон Маск, который является соучредителем компании, стоящей за ChatGPT, предупреждает, что ИИ является «одним из самых больших рисков» для цивилизации (CNBC)

“Один из самых больших рисков для будущего цивилизации — это ИИ”, — сказал Илон Маск участникам Всемирного правительственного саммита в Дубае, Объединенные Арабские Эмираты.

“Регулирование“может немного замедлить ИИ, но я думаю, что это также может быть хорошей вещью ”, — добавил Маск.”

Илон Маск предупреждает ИИ «об одном из самых больших рисков» для цивилизации во время риск-кампании ChatGPT (NY Post)

“Честно говоря, я думаю, нам нужно регулировать безопасность ИИ”, — сказал Маск, который также основал Tesla, SpaceX и Neurolink.

“Подумайте о любой технологии, которая потенциально представляет опасность для людей, например, если это самолеты, автомобили или лекарства, у нас есть регулирующие органы, которые следят за общественной безопасностью автомобилей, самолетов и лекарств. Я думаю, что у нас должен быть аналогичный набор регуляторных мер по надзору за искусственным интеллектом, потому что я думаю, что на самом деле это больший риск для общества ”.

ИИ может быть расистским, сексистским и жутким. Что нам с этим делать? (CNN)

“Это показывает нам, среди прочего, то, что предприятия не могут саморегулироваться. Когда вокруг огромные знаки доллара, они не собираются этого делать. И даже если у одной компании есть моральная основа, позволяющая воздерживаться от совершения этически опасных поступков, надеяться, что большинство компаний, что все компании, захотят это сделать, — ужасная стратегия в масштабах ”.

“Нам нужно, чтобы правительство было в состоянии, по крайней мере, защитить нас от худших вещей, которые может натворить ИИ”.

Обратите внимание, что эта статья посвящена краткосрочным рискам, связанным с ИИ, хотя я нахожу части о регулировании отрасли актуальными для долгосрочных дискуссий.

Приближаемся ли мы к катастрофе ИИ? Келси Пайпер (Вокс)

Аргументы в пользу замедления ИИ Сигал Сэмюэл (Vox)

“Таким образом, ИИ угрожает присоединиться к существующим катастрофическим рискам для человечества, таким как глобальная ядерная война или биоинженерные пандемии. Но есть разница. Хотя нет способа обезвредить ядерную бомбу или инструменты генной инженерии, которые могут уничтожать патогены, катастрофический ИИ еще предстоит создать, а это значит, что это один из видов гибели, который мы можем превентивно остановить ”.

“Но есть гораздо более очевидный способ предотвратить гибель ИИ. Мы могли бы просто … не создавать машину гибели. Или, более умеренно: вместо того, чтобы стремиться ускорить прогресс ИИ, мы могли бы намеренно замедлить его ”.

Эпоха ИИ началась Биллом Гейтсом

“Тогда существует вероятность того, что ИИ выйдет из-под контроля. Может ли машина решить, что люди представляют угрозу, сделать вывод, что ее интересы отличаются от наших, или просто перестать заботиться о нас? Возможно, но сегодня эта проблема не более актуальна, чем была до развития ИИ за последние несколько месяцев ”.

“За нашим будущим — сверхразумные ИИ. По сравнению с компьютером наш мозг работает со скоростью улитки: электрический сигнал в мозге движется со скоростью, равной 1/100 000-й скорости сигнала в кремниевом чипе! Как только разработчики смогут обобщить алгоритм обучения и запустить его со скоростью компьютера — достижение, на которое может уйти десятилетие или столетие, — у нас будет невероятно мощный AGI. Он сможет делать все, что может человеческий мозг, но без каких-либо практических ограничений на размер его памяти или скорость, с которой он работает. Это будет глубокое изменение ”.

“Эти ”сильные» ИИ, как их называют, вероятно, смогут установить свои собственные цели. Какими будут эти цели? Что произойдет, если они вступят в конфликт с интересами человечества? Должны ли мы пытаться предотвратить разработку сильного ИИ когда-либо? Со временем эти вопросы станут более актуальными ”.

(BBC)Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству . Обратите внимание, что этот относится к 2014 году; все остальные — недавние публикации.

Цитаты руководителей лабораторий ИИ

Сэм Альтман, 2015

“Развитие сверхчеловеческого машинного интеллекта (SMI), вероятно, является величайшей угрозой для дальнейшего существования человечества”.
“Как мы можем пережить развитие SMI? Это может оказаться невозможным”.

“Многие люди, похоже, верят, что SMI был бы очень опасен, если бы его разработали, но думают, что этого либо никогда не произойдет, либо определенно очень далеко. Это неаккуратное, опасное мышление”.

Сэм Альтман, 2023

“Наши решения потребуют гораздо большей осторожности, чем общество обычно применяет к новым технологиям, и большей, чем хотелось бы многим пользователям. Некоторые люди в области ИИ считают риски AGI (и систем-преемников) вымышленными; мы были бы рады, если бы они оказались правы, но мы собираемся действовать так, как если бы эти риски были реальными ”.
Демис Хассабис, 2023

“Я бы выступал за то, чтобы не двигаться быстро и ничего не ломать”.

“Когда дело доходит до очень мощных технологий — а очевидно, что ИИ станет одной из самых мощных в истории — нам нужно быть осторожными”, — говорит он.

“Не все думают об этих вещах. Это похоже на экспериментаторов, многие из которых не осознают, что держат в руках опасный материал ”.

Аnthropic, 2023

Сайт https://www.anthropic.com/

“Мы не знаем, как обучить системы надежному поведению. Пока никто не знает, как обучить очень мощные системы ИИ быть надежными, полезными, честными и безвредными. Кроме того, быстрый прогресс ИИ будет разрушительным для общества и может спровоцировать конкурентную борьбу, которая может привести корпорации или нации к развертыванию ненадежных систем ИИ. Результаты этого могут быть катастрофическими либо потому, что системы ИИ стратегически преследуют опасные цели, либо потому, что эти системы совершают более невинные ошибки в ситуациях с высокими ставками”.

“Быстрый прогресс ИИ был бы очень разрушительным, изменив занятость, макроэкономику и структуры власти как внутри стран, так и между ними. Эти сбои сами по себе могут быть катастрофическими, а также затруднить тщательное и продуманное построение систем ИИ, что приведет к дальнейшему хаосу и еще большему количеству проблем с ИИ ”.

Разное

  • 55% американской общественности говорят, что ИИ может в конечном итоге представлять угрозу существованию.
  • 55% выступают за то, чтобы “федеральное агентство регулировало использование искусственного интеллекта аналогично тому, как FDA регулирует одобрение лекарств и медицинских устройств”.
  • 46% американцев обеспокоены, что ИИ приведет к концу человечества

►Видео. ИИ и гибель человечества. Риски искусственного интеллекта

Искусственный интеллект сегодня уже может почти всё, что угодно, на уровне человека или даже лучше. Сегодня ChatGPT сдаёт экзамены, пишет код, находит ответы на любые вопросы. ИИ рисует картины, сочиняет музыку и даже водит машину. Но все ли так идеально? Какие риски несёт новое поколение искусственного интеллекта и нейросетей? Что ждет нас в будущем?

Один комментарий

  1. Нейросеть в машинном обучении — это математическая модель, которая работает по принципу нейронной сети живого организма. В отличие от нейросети животного, которая передаёт сигнал от мозга к другим органам и полностью регулирует жизнедеятельность организма, компьютерная нейросеть учится решать только ту задачу, которую ей ставит человек.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *