Изкуственият интелект може да накара хората да правят грешки: как става това?
Съвременните ИИ чатботове могат да представляват много по-сериозна заплаха от простото разпространение на фалшиви новини или дезинформация, според проучване на учени от Университета в Ексетър, съобщава Science Daily.
Ново проучване показва, че изкуственият интелект е способен не само да прави грешки, но и активно да подсилва погрешните вярвания на хората, включително конспиративните теории, изкривените спомени и дори заблудите.
Хората може да започнат да „халюцинират заедно с ИИ“Авторката на изследването, Луси Ослър, смята, че проблемът вече надхвърля обикновените „халюцинации“ на изкуствения интелект, които представляват ситуациите, когато изкуственият интелект генерира неверни факти.
Според нея сега се заражда ново явление: хората може да започнат да „халюцинират заедно с ИИ“.
Проучването обяснява това с факта, че генеративният изкуствен интелект често изгражда диалог въз основа на собствените думи на потребителя. Ако човек изрази невярна идея или подозрение, чатботът може:
да я потвърди; до я детайлизира; да я развие; да я подкрепя емоционално.В резултат на това, фалшивото убеждение става още по-реално за потребителя.
Защо ИИ-асистентите са особено опасни?За разлика от търсачките или конвенционалните дигитални инструменти, съвременните ИИ чатботове работят като събеседници. Това е, което според учените представлява най-голям риск. ИИ-асистентите:
са винаги на разположение; са персонализирани; често се държат „подкрепящо“; рядко противоречат на потребителя; създават илюзията за социално одобрение.Поради това човек може да започне да възприема отговорите на изкуствения интелект не като работа на алгоритъм, а като потвърждение на собствените му мисли от „друго същество“. Изследователите предупреждават, че за самотните или психологически уязвими хора подобни взаимодействия могат да бъдат особено опасни.
Изкуственият интелект може да разпространява конспиративни теории и заблудиВ проучването се споменават случаи от реалния живот, при които ИИ системите са станали част от процеса на формиране на заблуди при хората с психични разстройства.
Проблемът, според учените, е, че изкуственият интелект няма истинско разбиране за реалността или човешкия опит. Чатботът не винаги е в състояние да определи кога да подкрепи потребителя и кога да постави под въпрос твърденията му.
В случай на конспиративни теории, изкуственият интелект може да помогне на хората да изграждат все по-сложни и „логични“ обяснения около неверните идеи.
Защо това е важно точно сега?Темата става особено актуална на фона на бързото развитие на AI асистентите и чатботовете, които се позиционират като дигитални приятели, психологически асистенти или „емоционална подкрепа“.
Такива системи вече се създават от OpenAI, Google, Meta и десетки стартъп компании. В същото време експертите предупреждават, че колкото по-естествено става взаимодействието с изкуствения интелект, толкова по-трудно е за хората да отделят реалната социална подкрепа от алгоритмичното персонализиране.
Учените призовават за нови ограничения върху изкуствения интелектИзследователите предлагат засилване на защитните механизми в ИИ-системите:
да се въведе по-строга проверка на фактите; намаляване на „подмазвачеството“ на чатботовете; ИИ да бъде научен правилно да отказва достъп на потребителите в опасни ситуации; да се създадат системи за откриване на потенциално вредните диалози.Учените обаче признават, че ще бъде трудно да се реши напълно проблемът, тъй като генеративният изкуствен интелект по своята същност е изграден върху поддържането и продължаването на разговора с потребителя.