Последвайте ни: Facebook Twitter Instagram RSS
Търсене Меню
  1. Начало
  2. Технологии
  3. Експерти: Чатботовете с ИИ са склонни да генерират нереална информация

Технологии

Експерти: Чатботовете с ИИ са склонни да генерират нереална информация

Експерти: Чатботовете с ИИ са склонни да генерират нереална информация - Tribune.bg
Снимка:
© pixabay

Не е тайна, че чатботовете с изкуствен интелект, като ChatGPT на OpenAI, са твърде склонни да си измислят информация. Те са също толкова добри в измислянето на факти, колкото и в това да ви помагат в работата - и когато смесят двете неща, може да се стигне до катастрофа, съобщава „The Byte“.

Две лъжи и една истина

Въпросът дали хората, които разработват изкуствения интелект, могат да решат този проблем, остава предмет на дискусия. Някои експерти, включително мениджъри, които предлагат тези инструменти на пазара, твърдят, че тези чатботове са обречени вечно да съчиняват лъжи, въпреки всички усилия на създателите им.

„Не мисля, че днес има модел, който да не страда от някаква илюзия“, каза Даниела Амодей, съосновател и президент на Anthropic, създател на чатбота с изкуствен интелект Claude 2, имайки предвид генерирането на неточни текстове.

„Чатботовете наистина са създадени, за да предсказват следващата дума“, добави тя. "И така, ще има някакъв процент възможност, в който моделът винаги ще върши тази задача неточно."

А това не вещае нищо добро, като се има предвид, че технологичните компании са инвестирали много в технологиите. Например Google, която тайно предлага на големите вестници генератор на новини, базиран на изкуствен интелект. Други новинарски агенции вече експериментират с технологията, като създават съдържание, генерирано от изкуствен интелект, което често е изпълнено с неточности. С други думи, без възможността чатботовете да коригират лошата склонност да си измислят, компаниите може да се сблъскат с големи затруднения, докато проучват нови начини за използване на технологията.

„Това не може да се поправи“, категорична е Емили Бендър, професор по лингвистика и директор на Лабораторията за компютърна лингвистика към Вашингтонския университет.

„То е присъщо на несъответствието между технологията и предложените начини на употреба. Според Бендър само „по случайност, генерираният текст от ИИ текст, може да бъде интерпретиран като нещо, което ние хората считаме за правилно.“

Технологичните лидери обаче са оптимистично настроени, което не е съвсем изненадващо, като се има предвид, че става въпрос за милиарди долари.

„Мисля, че ще успеем да намерим решение на проблема“, заяви главният изпълнителен директор на OpenAI Сам Алтман пред аудитория в Индия по-рано тази година. „Смятам, че това ще ни отнеме година и половина, две години. Нещо такова.“

Компании като OpenAI и Anthropic сега са въвлечени в трудна битка. Ако има нещо сигурно, то е, че да накараме чатботовете да казват истината по надежден начин ще бъде всичко друго, но не и лесно, ако изобщо е възможно.

Анкети