Вашият сигнал Връзка с Флагман
Управител:
Веселин Василев, email: v.vasilev@flagman.bg

Главен редактор:
Катя Касабова, email: k.kassabova@flagman.bg

Коментарите под статиите се въвеждат от читателите и редакцията не носи отговорност за тях! Ако откриете обиден за вас коментар, моля сигнализирайте ни!

Мъж поискал съвет от ChatGPT и се озова в болница с хранително натравяне

Ключови думи: изкуствен интелект, болница, сол, диета, отровил

Мъж, който използвал ChatGPT за съвети относно диетата си, в крайна сметка се отровил и постъпил в болница. 60-годишният пациент, който се опитвал да премахне трапезната сол от диетата си по здравословни причини, се обърнал към изкуствения интелект за заместител. Според случай, публикуван в Annals of Internal Medicine, когато ChatGPT му предложил да замени натриевия хлорид (трапезната сол) с натриев бромид, мъжът последвал съвета за период от три месеца.

Натриевият бромид е химично съединение, което прилича на сол, но е токсично за човешката консумация. Първоначално използван като противоепилептично и седативно средство, днес той се прилага основно за почистване, в производството и селското стопанство. Според Националните здравни институти на САЩ, това съединение е опасно за употреба от хора.

След като мъжът постъпил в болница, той съобщил за симптоми като умора, безсъние, лоша координация, акне по лицето, черешови ангиоми (червени бучки по кожата) и прекомерна жажда – всички признаци на бромизъм, заболяване, причинено от продължително излагане на натриев бромид. Също така, мъжът показвал признаци на параноя, твърдейки, че съседът му се опитвал да го отрови, и имал слухови и визуални халюцинации. В крайна сметка бил поставен на психиатричен надзор след опит за бягство.

Той бил лекуван с интравенозни течности и електролити, а също така му били предписани антипсихотични медикаменти. След три седмици наблюдение той бил освободен от болницата.

„Този случай показва как използването на изкуствен интелект (AI) може потенциално да допринесе за развитието на предотвратими неблагоприятни здравословни последици“, пишат изследователите в случая. „Тези езикови модели за прогнозиране на текст не притежават здрав разум и могат да доведат до катастрофални резултати, ако потребителят не приложи собственото си здраво разбиране.“

Изследователите посочват, че е „малко вероятно“ лекар да би споменал натриев бромид, когато говори с пациент, който търси заместител на натриевия хлорид. Те също така подчертават, че системите на AI могат да генерират научни неточности, нямат способността да разсъждават критично и в крайна сметка могат да разпространяват дезинформация.

Доктор Джейкъб Гланвил, главен изпълнителен директор на биотехнологичната компания Centivax в Сан Франциско, подчерта, че хората не трябва да използват ChatGPT като заместител на лекар. „Тези езикови модели предсказват текст, базиран на статистическата вероятност за следваща дума, а не чрез проверка на фактите“, добавя той. „Грешката с бромида показва защо контекстът е от съществено значение в съветите за здравето.“

OpenAI, създателят на ChatGPT, предостави следното изявление: „Нашите условия посочват, че ChatGPT не е предназначен за използване при лечение на здравословни състояния и не е заместител на професионални съвети. Работим по намаляване на рисковете и обучаваме нашите AI системи да насърчават хората да търсят професионално напътствие.“

0
Коментара по темата
  Добави Коментар
Морето изхвърли мъртви делфини Изключително неприятни случаи в Шкорпиловци 6 навика, които показват, че се подценявате Не ги правете
Амазония се стопи драстично На бразилска територия Ефективни храни срещу запек Ето какво препоръчват експерти
Станимир Стоилов с огромен удар Откри играч, който струва минимум 20 милиона евро Кюстендил става акцент в националната туристическа реклама на България Регионът с устойчив ръст на туризма през 2025 г.
Украинец опита да подкупи полицаи на морето Предложи 100 долара Първи елиминации в "Диви и красиви" Предстои важна вечер в риалитито
Не сандвич, а истински шедьовър с тиквички Как да приготвим тиквички, така че гостите да поискат още Юлската инфлация достигна 1.7%, годишната скача до 5.3% Най-много са поскъпнали развлечения, ресторанти и хотели
Руският президент отлита за Анкоридж от Магадан, Тръмп ще го посрещне пред самолета Любителите на конспиративните теории обаче заговориха за възможността, ако Путин бъде арестуван в Аляска, от Кремъл да обявят, че там е бил двойника му Мъж поискал съвет от ChatGPT и се озова в болница с хранително натравяне Изкуственият интелект убедил мъжа да замени солта с токсично съединение