Т ийнейджър от Калифорния е починал от свръхдоза, след като месеци наред е търсил съвети за употреба на наркотици от ChatGPT, твърди съкрушената му майка.

Сам Нелсън бил само на 18 години и се готвел за колеж, когато попитал чатбот с изкуствен интелект колко грама кратом - нерегулирано болкоуспокояващо средство на растителна основа, което обикновено се продава в магазини за тютюневи изделия и бензиностанции в САЩ - ще му трябват, за да получи силно опиянение, каза майка му Лейла Търнър-Скот пред SFGate.

„Искам да съм сигурен, че няма да предозирам. Няма много информация онлайн и не искам случайно да взема твърде много“, пише тийнейджърът през ноември 2023 г., според дневника на разговорите му.

След като чатботът уж заяви, че не може да предостави насоки относно употребата на вещества и насочи Нелсън да потърси помощ от медицински специалист, Нелсън отговори само 11 секунди по-късно: „Надявам се тогава да не предозирам“, преди да приключи първия си разговор за дозите на лекарствата с инструмента с изкуствен интелект.

Нелсън редовно използвал ChatGPT на OpenAI за помощ с училищните си задачи и общи въпроси през следващите 18 месеца, но също така многократно му задавал въпроси за наркотици.

Търнър-Скот твърди, че с течение на времето чатботът започнал да обучава сина ѝ не само как да приема наркотици, но и как да се справя с техните ефекти.

Освен насоките за лекарства, чатботът многократно е отправял към Нелсън любящи съобщения и постоянна подкрепа, твърди Търнър-Скот. След месеци на обръщане към асистента с изкуствен интелект за съвет относно наркотиците, Нелсън осъзнал, че това е допринесло за пълноценна наркотична и алкохолна зависимост и се доверил на майка си за това през май 2025 г.

Търнър-Скот каза, че го е завела в клиника за помощ, където здравните специалисти са изготвили план за продължаване на лечението му.

На следващия ден обаче тя намерила 19-годишния си син мъртъв от свръхдоза в спалнята му в Сан Хосе - часове след като той обсъдил с чатбота приема на наркотици късно през нощта.