Технологии
AI Overviews на Google дават опасни здравни съвети
Препоръките към хората от това да ядат камъни до съвети да слагат лепило върху пица – нагледно показаха дълбоките проблеми, които продължават да съпътстват инструментите, базирани на големи езикови модели с ИИ
През май 2024 г. Google пусна противоречивата функция AI Overviews с аргумента, че ще улесни достъпа до информация. Последвалите т.нар. „халюцинации“ на изкуствения интелект – от препоръки хората да ядат камъни до съвети да слагат лепило върху пица – нагледно показаха дълбоките проблеми, които продължават да съпътстват инструментите, базирани на големи езикови модели.
Макар част от тези грешки да изглеждат безобидни и да водят най-вече до раздразнение у потребителите, други препоръки, генерирани от AI Overviews, могат да имат далеч по-сериозни последици.
Ново разследване на британския вестник „Гардиън“ разкрива, че автоматичните обобщения съдържат множество неточни здравни твърдения, които поставят хората в риск. Специалисти предупреждават, че е въпрос на време лошият съвет да доведе до сериозно увреждане на здравето или дори до смъртен случай.
Проблемът е съществен. „Гардиън“ установява, че инструментът е препоръчвал на хора с рак на панкреаса да избягват мазни храни, въпреки че лекарите съветват точно обратното. Информацията за онкологичните изследвания при жените също е била сериозно изопачена, което може да доведе до пренебрегване на реални симптоми на заболяване.
Ситуацията е особено тревожна, тъй като уязвими и страдащи хора често търсят отговори онлайн и прибягват до самодиагностика.
„Хората се обръщат към интернет в моменти на тревога и криза. Ако информацията, която получават, е неточна или извадена от контекст, това може сериозно да навреди на здравето им“, заявява пред „Гардиън“ Стефани Паркър, директор „Дигитални дейности“ в благотворителната организация за палиативни грижи „Мари Кюри“.
Допълнително безпокойство поражда фактът, че функцията дава напълно различни отговори на едни и същи въпроси – добре познат недостатък на големите езикови модели, който лесно може да доведе до объркване.
Ръководителят на информационния отдел на благотворителната организация за психично здраве „Майнд“ Стивън Бъкъл посочва пред изданието, че AI Overviews е предоставяла „изключително опасни съвети“ за хранителни разстройства и психози – обобщения, които са „неверни, вредни или могат да накарат хората да се откажат от търсене на професионална помощ“.
Говорител на Google посочи, че компанията инвестира „значителни ресурси в качеството на AI Overviews, особено по теми като здраве, и в преобладаващата част от случаите информацията е точна“.
Резултатите от разследването обаче показват, че технологичният гигант има още много работа, за да гарантира, че инструментът му не разпространява опасна здравна дезинформация.
Рисковете вероятно ще нарастват. Проучване от април 2025 г. на Центъра за публична политика „Анненберг“ към Университета на Пенсилвания показва, че близо осем от всеки десет възрастни са склонни да търсят онлайн информация за симптоми и заболявания. Почти две трети от тях смятат резултатите, генерирани от изкуствен интелект, за „донякъде или много надеждни“ – тревожно високо ниво на доверие. В същото време малко под половината от анкетираните заявяват, че се чувстват некомфортно, ако медицински специалисти използват AI при вземането на решения за лечението им.
Отделно изследване на Масачузетския технологичен институт установява, че участниците възприемат неточните отговори, генерирани от AI, като „валидни, надеждни и пълни“, като дори показват „висока склонност да следват потенциално вредни медицински съвети и да търсят ненужна медицинска помощ“ въз основа на тях.
Това се случва на фона на факта, че моделите с изкуствен интелект продължават да се доказват като крайно неподходящ заместител на човешките медицински специалисти. Междувременно лекарите са изправени пред трудната задача да развенчават митове и да не допускат пациентите да бъдат подведени от „халюциниращ“ AI.
На своя уебсайт Канадската медицинска асоциация определя здравните съвети, генерирани от изкуствен интелект, като „опасни“, подчертавайки, че халюцинациите, алгоритмичните пристрастия и остарелите факти могат да „ви подведат и потенциално да навредят на здравето ви“, ако бъдат следвани. Експертите продължават да препоръчват консултация с лекари и лицензирани здравни специалисти вместо с AI – съвет, който звучи трудно изпълним на фона на множеството пречки пред достъпа до адекватно здравеопазване по света.
Показателно е, че понякога самата функция AI Overviews изглежда осъзнава собствените си слабости. На въпрос дали може да бъде надежден източник на здравни съвети, инструментът насочва именно към разследването на „Гардиън“: „Разследване на ‘Гардиън’ установи, че AI обобщенията на Google са показвали фалшива и подвеждаща здравна информация, която може да изложи хората на риск от вреда.“