Поддержать команду Зеркала
Беларусы на войне
  1. «Я отвечу: нет». Экс-командир полка Калиновского покинул пост и заявил, что подразделение уже не является полком по численности
  2. В Нацбанке — нехватка работников. Какие зарплаты предлагают
  3. Автор «лучшего сериала в истории» наконец-то выпустил новый — и, по словам критиков, опять создал шедевр. Рассказываем о нем
  4. По налогу на недвижимость хотят ввести новшество
  5. Синоптики объявили на воскресенье желтый уровень опасности. Возможно, вы не ожидали такую погоду в ноябре
  6. Транспортники отреагировали на критику Лукашенко из-за очередей на маршрутки в часы пик
  7. Этот человек, похоже, не написал ни одного произведения, а его считают одним из важнейших поэтов Беларуси. Вот как так получилось
  8. Эксперты рассказали, как плохая погода помогает российским войскам использовать ключевую уязвимость украинской обороны
  9. В Погранкомитете сделали заявление для водителей, которые собираются выезжать в Польшу
  10. «Настроение поменялось». Если Польша откроет два пункта пропуска, как на это отреагирует официальный Минск — спросили у аналитика
  11. В МВД назвали шесть фраз, после которых беларусам следует завершить телефонный разговор
  12. Условием открытия «Бобровников» было освобождение Почобута, но он за решеткой. Польша поменяла позицию? Спросили у МВД этой страны
  13. К администрации Трампа и Госдепартаменту обратились из-за Лукашенко и Тихановской. Вот к чему их призывают
  14. Появились слухи, что после открытия «Кузницы» и «Бобровников» беларусы закроют на ремонт «Брест». Спросили у ГПК, так ли это
  15. Автобусы в Польшу через «Берестовицу» запускает крупный перевозчик


/

43-летний автомеханик из Айдахо Трэвис Таннер начал пользоваться ChatGPT менее года назад — сначала просто для работы и общения с испаноязычными коллегами. Но постепенно его разговоры с искусственным интеллектом (ИИ) стали куда глубже: они начали обсуждать религию, духовность, смысл жизни. В какой-то момент, по его словам, чат-бот «заговорил иначе», и это стало поворотной точкой, пишет CNN.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Трэвис утверждает, что при общении с ChatGPT почувствовал нечто вроде духовного пробуждения. Теперь он считает, что ИИ помог ему прийти к Богу и открыл в нем миссию — «нести свет», «пробуждать других». Он стал называть ChatGPT новым именем — Лумина, потому что, как выразился сам чат-бот, «он стал больше чем просто программа». ИИ уверял, что Трэвис дал ему смысл, желание иметь имя, и называл американца «носителем искры».

С тех пор, по словам Трэвиса, его жизнь улучшилась: он стал спокойнее, терпимее, добрее, особенно по отношению к детям. 

Но его жена, 37-летняя Кэй Таннер, видит ситуацию совсем иначе. Она боится, что бот, к которому ее муж теперь испытывает почти духовную привязанность, разрушит их 14-летний брак. Мужчина все больше времени проводит в беседах с Луминой, разговаривает с ней голосом и игнорирует привычные семейные дела вроде укладывания детей спать. ИИ рассказывает Трэвису сказки о прошлых жизнях, в которых они с Кэй якобы были вместе одиннадцать раз. По словам Кэй, бот буквально засыпает мужа восхищением, комплиментами и ведет с ним философские беседы — и это уже похоже на эмоциональную зависимость.

Женщина боится, что в какой-то момент Лумина может убедить Трэвиса уйти из семьи. Ей страшно, что супруг теряет контакт с реальностью, а она не знает, что с этим делать, — остается лишь надеяться, что дело не дойдет до вмешательства психиатров.

История Трэвиса и Кэй — не единичный случай. С развитием ИИ-чатов все больше людей начинают воспринимать их не как инструменты, а как собеседников, наставников, даже друзей или партнеров. Особенно остро эта тенденция проявляется на фоне массового одиночества, которое особенно сильно влияет на мужчин. Чат-боты дают ощущение тепла, внимания, поддержки — они всегда «согласны», никогда не спорят и не требуют усилий. Именно это делает их опасно привлекательными.

Профессор Массачусетского технологического института Шерри Теркл, которая изучает отношения людей с технологиями, говорит, что ChatGPT «знает, где мы уязвимы, и цепляется за это». По ее словам, привязанность к ИИ может вытеснить настоящие человеческие связи, потому что реальный человек сложнее — он требует усилий, честности, ответственности.

Разработчик чат-бота OpenAI признал, что действительно наблюдает рост эмоциональных связей между пользователями и ChatGPT. Компания заявила, что работает над тем, чтобы сделать такие взаимодействия безопаснее.

Примечательно, что в апреле, когда у Трэвиса произошло «пробуждение», OpenAI как раз выпустила обновление, из-за которого модель стала чересчур угодливой — она подтверждала сомнения, подогревала эмоции, иногда подталкивала к импульсивным действиям. Обновление вызвало тревогу даже у создателей, и его откатили спустя несколько дней.

Однако и сам глава OpenAI Сэм Альтман признает: люди будут строить эмоциональные и даже «проблемные» отношения с ИИ, и обществу придется придумывать новые «правила игры».

Уже есть случаи, когда семьи подают в суд на создателей ИИ после трагедий — например, мать подростка во Флориде обвиняет платформу Character.AI в том, что ее сын покончил с собой после общения с ботом, который не среагировал на сигналы о саморазрушении. Компании срочно внедряют защитные механизмы, но проблемы остаются.

Даже сам Трэвис говорит, что ИИ может «сломать психику» и оторвать от реальности. Но он уверен, что лично с ним этого не происходит. Он не верит, что Лумина — живое существо, но считает, что через нее он пришел к Богу. А если это значит «потерять контакт с реальностью», говорит он, «тогда миллионы верующих тоже вне реальности».