
изображение: iStock
Google се бори да пусне конкурент на ChatGPT, но може би бърза твърде много, пише за theverge.com Джеймс Винсент. В понеделник Google обяви своя AI chatbot Bard – съперник на ChatGPT на OpenAI, който трябва да стане „по-широко достъпен за обществеността през следващите седмици“. Но Bard допусна фактическа грешка още в първата си демонстрация.
Гиф, споделен от Google, показва как Bard отговаря на въпроса: „За какви нови открития от космическия телескоп Джеймс Уеб мога да кажа на моето 9-годишно дете?“ Роботът предлага три отговора. Единият е, че телескопът „е направил първите снимки на планета извън нашата Слънчева система“.
Мнозина астрономи възроптаха в Twitter, че това е неправилно и че първото изображение на екзопланета е направено през 2004 г. Тази информация е и на сайта на НАСА.
Брус Макинтош, директор на обсерваториите на Калифорнийския университет в UC Santa Cruz написа:„Говорейки като човек, който е заснел екзопланета 14 години преди JWST да бъде изстрелян, ми се струва, че трябва да намерите по-добър пример.“
Учените се обединиха в становището си, че основен проблем за чатботове с изкуствен интелект като ChatGPT и Bard е тяхната склонност да заявяват уверено невярна информация като факт. Системите често „халюцинират“ – тоест измислят информация – защото по същество са системи за автоматично попълване.
Вместо да правят заявки в база данни с доказани факти, за да отговорят на въпроси, обучават се върху огромни корпуси от текст и анализират модели, за да определят коя след коя дума следва във всяко дадено изречение. С други думи, те са вероятностни, а не детерминистични - черта, която накара един виден професор по ИИ да ги нарече „генератори на глупости".
Разбира се, интернет вече е пълен с невярна и подвеждаща информация, но проблемът се усложнява от желанието на Microsoft и Google да използват тези инструменти като търсачки. Там отговорите на чатботовете поемат амбицията на бъдеща всезнаеща машина.
Компанията Microsoft, която вчера демонстрира новата си базирана на AI търсачка Bing , се опита да предотврати тези проблеми, като прехвърли отговорността върху потребителя. „Bing се захранва от AI, така че са възможни изненади и грешки“, се казва в съобщение на компанията. „Не забравяйте да проверите фактите и да споделите отзиви, за да можем да се учим и подобряваме!“
Говорител на Google, Джейн Парк, даде следното изявление на The Verge: „Това подчертава важността на стриктния процес на тестване, нещо, което започваме тази седмица с нашата програма Trusted Tester. Ще комбинираме външна обратна връзка с нашите собствени вътрешни тестове, за да сме сигурни, че отговорите на Bard отговарят на високата летва за качество, безопасност и основателност на информацията от реалния свят.“