вторник, 25 марта 2025 г.

Выдающийся трансгуманист в области общего искусственного интеллекта: ‘Мы должны остановить все. Мы не готовы.’ по Джей Ди Ракер 2

 На прошедшем на прошлой неделе SXSW конференция, видный трансгуманист Элиэзер Юдковский заявил, что, если развитие общего искусственного интеллекта не будет остановлено сразу по всему миру, человечество может быть уничтожено.

“Мы должны остановить все,” Yudkowsky сказал во время панели под названием “Как сделать AGI (искусственный общий интеллект) Не убивать всех.”

“Мы не готовы,” продолжил он. “У нас нет технологических возможностей для разработки сверхразумного ИИ, вежливого, послушного и соответствующего человеческим намерениям –, и мы далеко не близки к достижению этого.”

Юдковский, основатель Научно-исследовательский институт машинного интеллекта, в последние годы делал аналогичные комментарии, неоднократно предупреждая, что человечество должно прекратить всю работу над AGI, иначе оно столкнется с исчезновением человечества.

В 2023 году статья в Время журнал Юдковский заявил, что ни один текущий проект AGI не имеет осуществимого плана по приведению AGI в соответствие с интересами человечества. [...]


Комментариев нет:

Отправить комментарий

Мир надеется, что « умеренно бдительный домашний кот » сможет разработать « последовательную большую стратегию » для Трампа

 Автор: Сорча Фаал, и как сообщили ее западным подписчикам В новом убедительном докладе  Совета Безопасности (  СБ  )  , распространенном се...