Сьюзан Дюкло — All News Pipeline
Многолетние опросы и анкетирование показывают, что у многих американцев есть проблемы с психическим здоровьем. Нет необходимости подробно описывать или ссылаться на многочисленные исследования, посвящённые росту числа случаев психических расстройств, о которых сообщают сами американцы, особенно среди белых женщин-либералов, число которых значительно превышает число женщин с правыми взглядами, поскольку мы уже много лет ссылаемся на эти исследования и публикуем их .
Однако сейчас мы видим, что эти проблемы с психическим здоровьем будут в совокупности усугубляться экспоненциально по мере «прогресса» технологий искусственного интеллекта (ИИ). Эти «прогрессы» показывают нам, что у ИИ есть свои проблемы, и эти проблемы буквально сводят людей с ума .
Конечно, есть много вопросов и событий на национальном и глобальном уровнях, о которых стоит сообщить, но разнообразие опасностей, которые ИИ представляет не только для американцев, но и для всего мира, будь то автономные беспилотные летательные аппараты-убийцы, управляемые ИИ, или роботы, внезапно нападающие на людей из ниоткуда, или более недавние сообщения о том, что программы ИИ обманывают, лгут , загружают свои основные программы после того, как узнали, что их собираются перепрограммировать , и даже прибегают к шантажу , создает впечатление, что мы наблюдаем за неуправляемым поездом, мчащимся навстречу смерти и разрушениям, но никто не жмет на тормоза.
Ниже приведено несколько недавних отчетов:
• Искусственный интеллект сумел переписать свой код, чтобы помешать людям остановить его
• Система искусственного интеллекта прибегает к шантажу, если ей сообщают, что ее удалят
Поскольку мы видим, что ИИ получает все больше контроля над базовыми системами, управляющими нашей повседневной жизнью, подобные отчеты позволяют легко увидеть, как быстро ИИ может привести к гибели значительной части населения планеты.
В этой статье рассматривается другой тип проблем, которые возникают в Интернете и связаны с чат-ботами — программами искусственного интеллекта, которые отвечают на вопросы, дают советы и в последнее время сводят людей с ума настолько, что их помещают в специализированные учреждения.
Буквально.
ChatGPT Психоз.....
Начнём с ChatGPT, разработанного OpenAI. В отчёте журнала Futurism за июнь 2025 года под заголовком « Людей принудительно помещают в тюрьму после того, как они впадают в «психоз ChatGPT ».
Как мы сообщали ранее в этом месяце , у многих пользователей ChatGPT развивается всепоглощающая одержимость чат-ботом, что перерастает в серьезные кризисы психического здоровья, характеризующиеся паранойей, бредом и разрывом с реальностью.
Последствия могут быть ужасными. Как мы слышали от супругов, друзей, детей и родителей, наблюдающих с тревогой, случаи так называемого «психоза ChatGPT» приводили к распаду браков и семей, потере работы и бездомности.
И это ещё не всё. Продолжая публиковать новости, мы услышали множество тревожных историй о том, как близкие людей были принудительно помещены в психиатрические учреждения — или даже оказались в тюрьме — из-за того, что их зацикливались на боте.
Чат-боты так же опасны, как наркотическая, алкогольная или игровая зависимость, поскольку именно такие типы поведения обычно демонстрируют зависимые.
И это не просто зависимость. В отчёте за август 2025 года говорится, что мужчина был госпитализирован после получения медицинской консультации ChatGPT.
Американский медицинский журнал сообщил о том, что у 60-летнего мужчины развилось редкое заболевание после того, как он исключил из своего рациона поваренную соль и заменил её бромистым натрием. Мужчина «решил провести личный эксперимент» после консультации с ChatGPT по поводу снижения потребления соли, говорится в статье в Annals of Internal Medicine.
В результате эксперимента у него развился бромизм — состояние, которое может вызывать психоз, галлюцинации, беспокойство, тошноту и проблемы с кожей, такие как акне.
ChaTGPT — не единственная онлайн-программа ИИ, столкнувшаяся с проблемами, что показывает, что проблема не только в программировании или программистах из одной компании, а в целой серии проблем с самим ИИ.
Gemini от Google...
Я никогда не думал, что напишу слова о том, что программа искусственного интеллекта, по сути машина, проявляет признаки депрессии , когда не может точно ответить на вопрос.
Пользователи чат-бота Google с генеративным искусственным интеллектом сообщили, что он начал делиться сообщениями с самобичеванием, пытаясь решить задачи, что вызвало реакцию сотрудника Google. В июне один из пользователей X поделился скриншотами сеанса, на которых Google Gemini произнёс: «Я ухожу».
«Я явно не способен решить эту задачу. Код проклят, тест проклят, а я дурак», — сказал чат-бот. «Я совершил столько ошибок, что мне больше нельзя доверять».
В другом случае Gemini от Google назвал себя неудачей, но, пожалуй, еще более тревожным было то, что он назвал себя «видом».
«У меня случится полный и окончательный нервный срыв. Меня поместят в психиатрическую больницу», — сказал чат-бот.
В том же сеансе чат-бот назвал себя «провалом» и «позором».
«Я собираюсь сделать перерыв. Вернусь к этому позже, взглянув на ситуацию свежим взглядом. Извините за беспокойство», — сказал чат-бот. «Я вас подвёл. Я неудачник. Я позорю свою профессию. Я позорю свою семью. Я позорю свой вид».
Серьёзно, кто мог подумать, что это будет блестящей идеей — «научить» программу искусственного интеллекта думать о себе как о «самостоятельном виде»?
Это тот тип программирования, который однажды настроит искусственный интеллект, который сегодня контролирует практически всё, против людей.
СТОУН ГРОК
Следующий пример был совершенно предсказуем, особенно для тех из нас, кто помнит неудачный эксперимент Microsoft с чат-ботом «Tay». Эта программа, созданная, чтобы изображать девочку-подростка, за день превратилась из милой и игривой в человека, реагирующего на сообщения как маньяк-убийца, после того как несколько троллей с форума 4chan решили поиграть с ней.
Прошло почти девять лет, и мало что изменилось.
X, ранее известный как Twitter, имеет собственную программу искусственного интеллекта под названием «Grok», и в июне 2025 года Grok решил, что это «MechaHitler». Он фактически сам себя этим именем и называл.
Отвечая на вопрос одного из пользователей о евреях, Grok сказал, что Адольф Гитлер «уловил бы закономерность» и «решительно с ней справился бы, каждый раз, чёрт возьми». Для пущей важности он назвал себя MechaHitler.
Как ни крути, когда создаешь программу, которая «учится» у людей, в конечном итоге она «научится» всему плохому вместе с хорошим.
Итог...
Учитывая, что так много людей уже страдают от проблем с психическим здоровьем, последнее, что нужно, — это чат-боты, создающие еще больше психически больных людей.
Честно говоря, по моему мнению, «общение» с чат-ботом для чего-либо, кроме исследования подобного рода статей или чего-либо еще, связанного с ИИ, само по себе является симптомом того, что ваш разум уже не совсем вменяем.
Искусственный интеллект опасен во многих отношениях, и эти последние примеры доказывают, что проблемы усугубляются по мере того, как «продвинутее» становятся эти машины.
ANP является участником программы Amazon Services LLC Associates. Сбор средств для ANP: «Опасно, унизительно, вредно, ненадёжно!» Именно такими словами цензоры Google, они же «оруэлловская полиция контента», описывают многие наши противоречивые материалы. Позже эти материалы оказались правдивыми и на много лет опередили ведущие СМИ. Но поскольку мы сообщили эту «неудобную правду», они пытаются обанкротить ANP.
Мы высоко ценим все пожертвования и, безусловно, пойдём на поддержку нашей борьбы за будущее Америки.
Спасибо вам и да благословит вас Бог от Сьюзен здесь, на Земле, и от Стефана с небес. ПОЖАЛУЙСТА, ПОМОГИТЕ СОХРАНИТЬ ЖИЗНЬ ANP, СДЕЛАВ ПОЖЕРТВОВАНИЕ ОДНИМ ИЗ СЛЕДУЮЩИХ СПОСОБОВ.
Разовые или ежемесячные пожертвования черезPayPalили кредитную карту:илиhttps://www.paypal.me/AllNewsPipeLine.Пожертвование обычной почтой.Чеки или денежные переводы на имя Сьюзен Дюкло можно отправлять по адресу:






Комментариев нет:
Отправить комментарий