У США стався небезепечний випадок, коли 60-річний чоловік, бажаючи зменшити споживання солі без втрати необхідних мінералів, звернувся за порадою до ChatGPT.
Згодом штучний інтелект дав йому шкідливу рекомендацію: замінити звичайну кухонну сіль (хлорид натрію) на бромід натрію. Ця сполука, хоч і має схожу назву, абсолютно не призначена для вживання в їжу.
Про цей інцидент пише Live Scince.
Чоловік зі США отруївся через ШІ
Слідуючи пораді, американець придбав бромід натрію в інтернеті та вживав його протягом трьох місяців. Вже через деякий час пацієнт почав відчувати серйозні проблеми зі здоров’ям і звернувся до лікарні. У нього спостерігалися: сильна спрага, безсоння та втома, порушення координації рухів.
Згодом до фізичних симптомів додалися й психічні — параноя та галюцинації. Лікарі діагностували у чоловіка бромізм — рідкісний стан, спричинений накопиченням броміду в організмі.

Бромід натрію відомий своєю токсичністю та здатністю викликати психози, проблеми з пам’яттю та шкірні висипання.
Історично речовину використовували в ліках у 19-20 століттях, але потім відмовилися через його небезпеку.
Спочатку чоловіка госпіталізували, але через погіршення психічного стану та спробу втечі його перевели до психіатричної лікарні. Після кількох тижнів інтенсивного лікування, що включало введення рідин, електролітів та антипсихотичних препаратів, його стан стабілізувався, чоловіка виписали.
Реакція OpenAI на інцидент
У компанії OpenAI, розробниці ChatGPT, відрегували на інцидент. Там ще раз запевнили, що штучний інтелект — це не заміна кваліфікованого медичного фахівця.
Він не може ставити діагнози чи призначати лікування. Для будь-яких питань, що стосуються здоров’я, необхідно звертатися до лікаря.
Раніше ми писали, що згідно з дослідженням Common Sense Media, понад 70% підлітків вже користуються штучним інтелектом, а 33% обговорюють з ним важливі питання замість спілкування з людьми.
Більше відео? Ексклюзиви, інтерв’ю, смішні шортси і не лише – зазирай на Youtube Вікон. З нами затишно!