вторник, 25 марта 2025 г.

Выдающийся трансгуманист в области общего искусственного интеллекта: ‘Мы должны остановить все. Мы не готовы.’ по Джей Ди Ракер 2

 На прошедшем на прошлой неделе SXSW конференция, видный трансгуманист Элиэзер Юдковский заявил, что, если развитие общего искусственного интеллекта не будет остановлено сразу по всему миру, человечество может быть уничтожено.

“Мы должны остановить все,” Yudkowsky сказал во время панели под названием “Как сделать AGI (искусственный общий интеллект) Не убивать всех.”

“Мы не готовы,” продолжил он. “У нас нет технологических возможностей для разработки сверхразумного ИИ, вежливого, послушного и соответствующего человеческим намерениям –, и мы далеко не близки к достижению этого.”

Юдковский, основатель Научно-исследовательский институт машинного интеллекта, в последние годы делал аналогичные комментарии, неоднократно предупреждая, что человечество должно прекратить всю работу над AGI, иначе оно столкнется с исчезновением человечества.

В 2023 году статья в Время журнал Юдковский заявил, что ни один текущий проект AGI не имеет осуществимого плана по приведению AGI в соответствие с интересами человечества. [...]


Комментариев нет:

Отправить комментарий

Российская ПВО сорвала британско-французскую атаку на авиабазу Хмеймим в Сирии (видео)

  По сообщениям сирийских СМИ, российские средства ПВО, размещенные на авиабазе Хмеймим на побережье Сирии, отразили атаку беспилотников веч...