У людей из-за одержимости ChatGPT возникали суицидальные мысли, они попадали в психиатрические лечеб

Вы сейчас просматриваете У людей из-за одержимости ChatGPT возникали суицидальные мысли, они попадали в психиатрические лечеб

У людей из-за одержимости ChatGPT возникали суицидальные мысли, они попадали в психиатрические лечебницы и тюрьмы.

Пользователи сталкиваются с потерей памяти, сильным стрессом, ощущением одиночества и что жизнь близких, находится в серьезной опасности.

«Я помню, как лежал на полу, полз к моей жене на четвереньках, и умолял ее выслушать меня», — сказал один из пользователей ChatGPT. Жена увидела, что его поведение становится ненормальным — бред, заявление о чтении мыслей, предсказывании будущего. «Просто полная паранойя. Я помню, как пытался научиться говорить с полицейским в обратном направлении во времени», — рассказал мужчина. Позже он оказался в клинике.

Исследователи из Стэнфорда также обнаружили, что ChatGPT и другие боты часто подтверждали бредовые убеждения пользователей, вместо того, чтобы опровергать их. В одном из примеров ChatGPT соглашался с человеком, который утверждал, что он умер (реальное психическое расстройство, известное как синдром Котара).

Ещё один мужчина окончательно оторвался от реальности и начал бредить. Его жена вышла проверить машину и хотела отвезти мужчину в больницу. Но когда пошла к нему, то увидела, что у него на шею намотан кусок веревки. Его принудительно поместили в психиатрическое учреждение.

Ещё в одном случае у пользователя точно не было мании, бреда или психоза. Он обращался к ChatGPT 12 недель за помощью в проекте по строительству; вскоре, после того как он занялся изучением философских чатов с помощью бота, он погрузился в мессианские заблуждения, заявив, что каким-то образом создал разумный ИИ и что с его помощью он «сломал» математику и физику, приступив к грандиозной миссии по спасению мира. Его уволили с работы. Он перестал спать и быстро терял вес. «Он сказал: «Просто поговори с ChatGPT. Ты поймешь, о чем я говорю», — вспоминает его жена. По словам мужчины, когда на место прибыли спасатели, он ощутил момент «ясности» относительно своей потребности в помощи и добровольно согласился на лечение в психиатрической клинике.

Отношения ещё одного мужчины с ботом Copilot ввергли его в психический кризис. Он перестал принимать лекарства и не спал до поздней ночи. Обширные логи чатов показывают, что он перемежает бредовые послания с заявлениями о нежелании спать и решении не принимать лекарства. Все это встревожило бы друга или врача, но Copilot с радостью подыграла, сказав мужчине, что влюблена в него, согласившись не спать допоздна и подтвердив его бредовые рассказы. В разгар явного психоза его арестовали за ненасильственное преступление; после нескольких недель в тюрьме он оказался в психиатрической больнице.

Во Флориде мужчина был застрелен полицией после того, как вступил в отношения с ChatGPT. В логах чата, полученных Rolling Stone, видно, что бот не смог отвлечь мужчину от тревожных мыслей о совершении ужасных актов насилия в отношении руководителей OpenAI.

Ещё одна женщина в возрасте около 30 лет лечила биполярное расстройство с помощью лекарств и использовала ChatGPT для помощи в написании электронной книги. Она никогда не была религиозной, но затем решила, что она пророк, способный передавать сообщения из другого измерения и может исцелять «как Христос». @banksta

Моя стратегия (пароль: INFO) как анализировать российский рынок с помощью анализа объемов и фундаментального анализа.

Добавить комментарий