Ако редовно следите социалните медии, може би сте попадали на много примери за това, че тези ИИ прегледи са били забавно или дори опасно погрешни. Разбира се, фактологични грешки могат да се появят и в съществуващите чатботове на LLM моделите, но потенциалните щети, които могат да бъдат причинени от неточностите на ИИ, се увеличават многократно, когато тези грешки се появят на върха на свръхценната уеб класация на страницата с резултати от търсенето в Google. „Примерите, които видяхме, обикновено са много необичайни запитвания и не са представителни за опита на повечето хора“, заявява говорител на Google.
Отговор, препоръчващ „течност за мигачи“ за мигач, който да не издава шум при активиране, може да бъде проследен по подобен начин до трол във форумите за съвети Good Sam, на които AI Overview на Google очевидно се доверява като на надежден източник. При обикновени търсения в Google тези шеговити публикации от случайни интернет потребители вероятно не биха били сред първите отговори, които някой вижда, когато щракне върху списък с уеб връзки. Но при AI Overviews тези нестандартни отговори са интегрирани в авторитетно звучащото обобщение на данните, представено в горната част на страницата с резултатите.
Нещо повече, в малките полета за „връзка към източника“ под обобщението на ИИ на Google няма нищо, което да подсказва, че някой от тези форумни тролове е нещо различно от добър източник на информация. Понякога обаче поглеждането към източника може да ви спести малко огорчение, като например когато видите отговор, в който буквалното тичане с ножица в ръка се нарича „кардио упражнение, за което някои казват, че е ефективно“. Един опитен уеб потребител вероятно би бил предпазлив, преди да посочи като надежден източник Idea Wiki на Fandom, но един невнимателен потребител на AI Overview може да не забележи откъде ИИ е получил информацията си.