Медичний чат-бот порекомендував пацієнту вбити себе

02-11-20 22:20
Канал 24

Медичний чат-бот на базі штучного інтелекту створила французька компанія Nabla, пише The Register.

Бот розроблений, щоб допомогти лікарям автоматизувати деякі завдання. Зокрема, він мав би аналізувати запити пацієнтів і пропонували рішення їхніх проблем. Таким чином хотіли тестувати здібності GPT-3 – алгоритму обробки природної мови від OpenAI.

Проте нестабільна та непередбачувана природа реакцій програмного забезпечення зробила його недоречним для взаємодії з пацієнтами в реальному світі, підсумувала команда Nabla. Причиною тому й стала ситуація, коли бот порекомендував уявному пацієнту убити себе.

Йому не вистачає наукових і медичних знань, які зробили б його корисним для медичної документації, діагностики, рекомендацій з лікування або будь-яких медичних питань і відповідей",– зазначила команда Nabla в звіті.
Стежте за оновленнями на сторінці ведучого «Надзвичайних новин» Костянтина Стогнія в Facebook

Стрічка новин

Всі новини
22:56У дитячій лікарні Закарпаття помер 5-місячний хлопчик
16:19Рубав сокирою і забивав молотком: у школі на Рівненщині вбито 5 людей (відео)
20:30Матір-вихователька на Київщині мучила дітей, голодних і спраглих, аби ті згодились на рабство
19:53Хворі психічно і породілля, і бабуся: у смітнику знайшли 5-місячне немовля без ніг та з розбитою головою
20:27Покинула самих удома: на Львівщині затримали матір трьох дітей, які загинули в пожежі (фото)

Актуальні статті

Більше публікацій
21-річного сина заступника мера Харкова спалили живцем у Відні заради крипти
На Одещині педофіл два роки ґвалтував падчерку трьома способами вдома, в авто і лісі: почав у 8 років
У FlixBus тисячі вкрадених валіз: приєднуйтесь до Telegram-групи задля справедливості, адвокат безкоштовний
Убивчі ліки: чому діти масово помирають від індійських сиропів проти кашлю
Віртуальні вербовщики у військо: як ШІ допомагає рекрутингу в Силах ТрО