Кухни по поръчка | Съвети за мода и красота | Ваучери за намаления

Биологичният AI се оказа нож с две остриета: той създава отрови и антидоти – и не е ясно кое е по-опасно

Универсалните чатботове с изкуствен интелект и специализираните големи езикови модели за биологията улесняват разработването на токсини, вируси и пандемични патогени, а с тях и на нови биологични оръжия. Сериозността на заплахата се потвърждава от учени и изследователи, интервюирани от списание Nature. Те обаче имат различни мнения: едни изискват да се ограничи достъпът до програми и обучителни данни, а други – да се постави бариера на етапа на синтеза на ДНК. Част от изследователите се надяват, че AI ще помогне за създаването на антидоти и противоотрови.

Тревожен сигнал стана разработеният през 2024 година от китайски учени AI инструмент за проектиране на конотоксини – протеини от отровата на морските мекотели-конуси, способни да блокират йонните канали на нервната система и да убиват хора. В писмо до затворена дискусионна група по AI и биотехнологии, с което се запозна Nature, високопоставен служител на правителството на САЩ определи работата като възможен риск за биобезопасността – особено защото инструментът е изграден върху отворен езикова модел на протеини, разработен от американски учени. Съавторът на статията Сюе Вейвей от университета в Чунцин възразява: работата е насочена към търсене на лекарства, а преходът от изчисления към създаване на реални молекули изисква сериозна експертиза и оборудване.

„Теоретично (и именно това не ми дава да спя нощем) в момента е възможно да се разработят токсини от класа на рицина или други изключително смъртоносни агенти, които ще бъдат практически неоткриваеми.“

казва Мартин Пачеса (Martin Pacesa), структурен биолог от Цюрихския университет (UZH)

Докладът на Националната академия на науките, инженерството и медицината на САЩ (NASEM) за 2025 година гласи следното: усилването на пандемичните патогени се затруднява от липсата на качествени данни и трудностите при тяхното лабораторно производство. Но създаването на дизайнерски токсини вече е възможно, признават експертите, а Тимъти Дженкинс от Датския технически университет (DTU) предупреждава, че такъв токсин ще бъде труден за откриване и е по-вероятно да бъде използван срещу конкретен човек.

Биологичният AI се оказа нож с две остриета: той създава отрови и антидоти – и не е ясно кое е по-опасно

Според мнозина учени основната защита се осъществява на етапа на синтеза на ДНК: компаниите, произвеждащи ДНК проверяват всяка поръчка чрез софтуер за скрининг, който търси следи от известни токсини и патогенни протеини. Работата на изследователите от Microsoft под ръководството на Ерик Хорвиц, публикувана през 2025 година показа, че тази проверка може да бъде заобиколена с помощта на AI. Екипът е генерирал 76 000 синтетични хомолога – молекули със същата опасна функция като известните токсини и вирусни протеини, но с различна ДНК-последователност, непозната на скрининговите бази данни.

Около 1/4 от най-добрите проби са се промъкнали през проверката в четирите компании за синтез на ДНК, участвали в експеримента, но след актуализацията на софтуера процентът на пропуските е спаднал до около 3%. Скринингът на ДНК засега остава доброволен: указ на президента на САЩ от 2025 гoдина подтиква американските финансиращи организации към задължителни правила, Европейският съюз (ЕС), Великобритания и Нова Зеландия следват примера, но в повечето страни няма изисквания. В Китай (повече от 30% от световните поръчки за синтез на ДНК) скринингът се препоръчва от правителството, но все още не е задължителен.

Вградените защитни ограничения на самите AI модели също могат да бъдат заобиколени.

В проучването SecureBio, ръководено от Сет Доноу, почти 90% от участниците успяха да извлекат биологична информация с висока степен на риск от универсалните големи езикови модели (LLM). Биоинженерът Ли Конг от Станфорд, с помощта на универсален AI агент измами геномния езиков модел Evo 2 да генерира нови версии на протеините на коронавируса SARS-CoV-2 и HIV-1, въпреки че той не е бил обучен на данни за вируси, заразяващи човека. Изданието The New York Times по-рано съобщи, че мъж, арестуван в Индия по обвинение в подготовка на производство на рицин за терористичен акт е искал съвети от ChatGPT.

Биологичният AI се оказа нож с две остриета: той създава отрови и антидоти – и не е ясно кое е по-опасно

Част от индустрията се ориентира към ограничен достъп. През април OpenAI обяви GPT-Rosalind – AI за биологията: достъп до него ще получат само проверени изследователи и организации, а потребителите, получили достъп, ще бъдат наблюдавани за признаци на разработване на биологично оръжие. Коалицията за иновации в областта на готовността за епидемии (CEPI) подготвя в Осло „платформа за готовност за пандемии“, която най-вероятно ще бъде достъпна само за проверени потребители.

Oбластта на защитата също не изостава. Съвместно с НАТО, Дженкинс разработва метод за масспектрометрична идентификация на синтетични протеини в подозрителни проби, а на пазара за биологична защита се появиха частни компании: Red Queen Bio в Сан Франциско и Valthos в Ню Йорк привлякоха инвестиции в размер на 15 и 30 млн. долара съответно. Трябва да се признае, че биотехнологичният AI е нож с две остриета: едни и същи AI модели създават както заплаха, така и защита и не е ясно кой ще излезе напред.

Коментари
Все още няма коментари