Медичний чат-бот порекомендував пацієнту вбити себе

02-11-20 22:20
Канал 24

Медичний чат-бот на базі штучного інтелекту створила французька компанія Nabla, пише The Register.

Бот розроблений, щоб допомогти лікарям автоматизувати деякі завдання. Зокрема, він мав би аналізувати запити пацієнтів і пропонували рішення їхніх проблем. Таким чином хотіли тестувати здібності GPT-3 – алгоритму обробки природної мови від OpenAI.

Проте нестабільна та непередбачувана природа реакцій програмного забезпечення зробила його недоречним для взаємодії з пацієнтами в реальному світі, підсумувала команда Nabla. Причиною тому й стала ситуація, коли бот порекомендував уявному пацієнту убити себе.

Йому не вистачає наукових і медичних знань, які зробили б його корисним для медичної документації, діагностики, рекомендацій з лікування або будь-яких медичних питань і відповідей",– зазначила команда Nabla в звіті.
Стежте за оновленнями на сторінці ведучого «Надзвичайних новин» Костянтина Стогнія в Facebook

Стрічка новин

Всі новини
20:00У соцмережі дівчина заявила, що її впродовж 5 років ґвалтували брати, а її сестру ще й вбили
19:02“Мамо, я чула, як вона гризе мою кістку”: у Дніпрі 13-річній дівчинці ампутували ногу через укуси бійцівського пса (відео)
19:20На Тернопільщині 35-річний чоловік забив до смерті дружину​ на очах у дітей: 5 малолітніх дочок і синів осиротіли
18:04На Харківщині 12-річний виродок ґвалтував хлопчиків віком 10-12 років, одна з жертв – син загиблого військового
19:09У Рівному хвора на шизофренію жінка втекла зі швидкої допомоги

Актуальні статті

Більше публікацій
21-річного сина заступника мера Харкова спалили живцем у Відні заради крипти
На Одещині педофіл два роки ґвалтував падчерку трьома способами вдома, в авто і лісі: почав у 8 років
У FlixBus тисячі вкрадених валіз: приєднуйтесь до Telegram-групи задля справедливості, адвокат безкоштовний
Убивчі ліки: чому діти масово помирають від індійських сиропів проти кашлю
Віртуальні вербовщики у військо: як ШІ допомагає рекрутингу в Силах ТрО