вторник, 25 марта 2025 г.

Выдающийся трансгуманист в области общего искусственного интеллекта: ‘Мы должны остановить все. Мы не готовы.’ по Джей Ди Ракер 2

 На прошедшем на прошлой неделе SXSW конференция, видный трансгуманист Элиэзер Юдковский заявил, что, если развитие общего искусственного интеллекта не будет остановлено сразу по всему миру, человечество может быть уничтожено.

“Мы должны остановить все,” Yudkowsky сказал во время панели под названием “Как сделать AGI (искусственный общий интеллект) Не убивать всех.”

“Мы не готовы,” продолжил он. “У нас нет технологических возможностей для разработки сверхразумного ИИ, вежливого, послушного и соответствующего человеческим намерениям –, и мы далеко не близки к достижению этого.”

Юдковский, основатель Научно-исследовательский институт машинного интеллекта, в последние годы делал аналогичные комментарии, неоднократно предупреждая, что человечество должно прекратить всю работу над AGI, иначе оно столкнется с исчезновением человечества.

В 2023 году статья в Время журнал Юдковский заявил, что ни один текущий проект AGI не имеет осуществимого плана по приведению AGI в соответствие с интересами человечества. [...]


Комментариев нет:

Отправить комментарий

ЕС выпускает страшное предупреждение для 450 миллионов граждан: ‘Поставки запасов и подготовка к мировой войне 3’

  Европейский Союз балансирует на краю пропасти, и его лидеры это знают. В среду Комиссия ЕС издала пугающую директиву: каждый гражданин дол...