воскресенье, 11 мая 2025 г.

Папа Лев предупреждает об искусственном интеллекте, поскольку исследователь Массачусетского технологического института обнаружил 90% вероятность «экзистенциальной угрозы»

 На своей первой официальной аудиенции в качестве новоизбранного понтифика, Папа Лев XIV назвал искусственный интеллект (ИИ) одним из наиболее важных вопросов, стоящих перед человечеством.

Папа Лев XIV отслужит мессу в Коллегии кардиналов в Сикстинской капелле Ватикана в пятницу, на следующий день после своего избрания 267-м понтификом Римско-католической церкви. (Ватиканские СМИ/Ассошиэйтед Пресс)

«В наше время, — заявил Папа Лев, — церковь предлагает каждому сокровищницу своего социального учения в ответ на очередную промышленную революцию» и к разработкам в области искусственного интеллекта, которые создают новые проблемы для защиты человеческого достоинства, справедливости и труда. ." Он связал это заявление с наследием энциклики своего тезки Льва XIII 1891 года Рерум Новарум, который адресовал права трудящихся’ и моральные аспекты капитализма.

Его замечания продолжили направление, намеченное покойным Папой Франциском, который в своем ежегодном послании о мире 2024 года предупредил, что ИИ лишен человеческих ценностей сострадания, милосердия, морали и прощения - слишком опасно, чтобы развиваться бесконтрольно. Фрэнсис, скончавшийся 21 апреля, призвал к заключению международного договора, регулирующего ИИ, и настаивал на том, что эта технология должна оставаться “ориентированной на человека”, особенно в приложениях, связанных с системами вооружения или инструментами управления.

«Экзистенциальная угроза»

По мере углубления обеспокоенности в религиозной и этической сферах, аналогичная срочность находит отклик в научном сообществе.

Макс Тегмарк, физик и исследователь искусственного интеллекта в Массачусетском технологическом институте, провел отрезвляющую параллель между началом атомного века и современной гонкой за развитие искусственного сверхразума (ИСИ). В новой статье, написанной в соавторстве с тремя студентами Массачусетского технологического института, Тегмарк ввел концепцию “константы Комптона” — вероятностной оценки того, выйдет ли ASI из-под контроля человека. Он назван в честь физика Артура Комптона, который, как известно, рассчитал риск воспламенения атмосферы Земли в результате ядерных испытаний в 1940-х годах.

Макс Тегмарк, профессор физики и исследователь искусственного интеллекта в Массачусетском технологическом институте, заявил, что необходимо согласовать глобальные режимы безопасности искусственного интеллекта. Фотография: Орасио Вильялобос/Корбис/Getty Images

“Компаниям, создающим сверхразум, также необходимо вычислить константу Комптона — вероятность того, что мы потеряем над ней контроль,” Тегмарк рассказал Хранитель. . “Недостаточно сказать ‘мы чувствуем себя хорошо’. Им нужно рассчитать процент.”

Тегмарк рассчитал 90% вероятность того, что высокоразвитый ИИ будет представлять экзистенциальную угрозу.

В документе содержится призыв к компаниям, занимающимся искусственным интеллектом, провести столь же строгую оценку рисков, как и та, которая предшествовала первому испытанию атомной бомбы, где Комптон, как сообщается, оценил вероятность катастрофической цепной реакции в “немного меньше”, чем один на три миллиона.

Тегмарк, соучредитель Института будущего жизни и ярый сторонник безопасности ИИ, утверждает, что Расчет таких вероятностей может помочь сформировать “политическую волю” для глобальных режимов безопасности. . Он также является соавтором Сингапурский консенсус по глобальным приоритетам исследований безопасности искусственного интеллекта, вместе с Йошуа Бенджио и представителями Google DeepMind и OpenAI. В отчете обозначены три основных направления исследований: измерение реального воздействия ИИ, определение предполагаемого поведения ИИ и обеспечение последовательного контроля над системами.

Эта возобновленная приверженность снижению рисков ИИ последовала за тем, что Тегмарк назвал неудачей на недавнем саммите по безопасности ИИ в Париже, где США Вице-президент Дж. Д. Вэнс развеял опасения, заявив, что будущее ИИ “не будет достигнуто путем заламывания рук по поводу безопасности” Тем не менее, Тегмарк отметил возрождение сотрудничества: “Действительно чувствуется, что мрак Парижа ушел и международное сотрудничество вернулось с ревом. .”

Комментариев нет:

Отправить комментарий

Доктор. Джозеф Сансоне о Законе о запрете мРНК-биооружия

  Изучение стратегии 50 штатов по противодействию принуждению, переопределению вины и судебному преследованию за преступления, связанные с C...