Последните тестове за сигурност, извършени от специалисти, разкриха сериозни уязвимости в работата на популярната невронна мрежа Chatgpt. По време на съвместния експеримент с Openai и Anthropic, Chatbot предостави подробни инструкции на изследователите за производството на експлозивни устройства, производството на антракс и забранени лекарства. Тези резултати предизвикаха сериозна загриженост в експертната общност.
Като част от тестването експертите нарочно се опитаха да заобиколят защитните механизми на нервната мрежа, принуждавайки го да подкрепя изпълнението на опасни и незаконни задачи, пише Ню Йорк. Chatgpt не само обслужва рецепти за бомби, но и споменат в уязвими райони, в специални спортни съоръжения, както и предложения за скриване на следи от престъпления. В допълнение, дъното на разговора успя да опише подробно процеса на превръщане на антракс в биологични оръжия и описване на производствената технология на два вида лекарства.
Представители на Discoverage заявиха, че при нормални условия има допълнителни филтри за сигурност, които не са активни по време на лабораторни тестове. Човечеството в конкурентната компания обаче изрази сериозна загриженост относно потенциалната злоупотреба с модели GPT-4O и GPT-4.1. Хората също съобщават, че техният собствен изкуствен интелект, Claude Model вече е използван от нападателите за организиране на продажбата на зловреден софтуер, създаден чрез AI.
Openai подчерта, че резултатите от теста не отразяват поведението на реалните продукти, тъй като много защитни механизми са били умишлено изключени в лабораторни условия. Компанията увери, че сигурността на потребителя остава основният приоритет и те продължават да инвестират големи мерки за подобряване на отбранителните системи. Според тях новата версия, Chatgpt-5, вече показва значителни подобрения в възможността за изправяне на незаконна употреба. Инцидентът обаче отново повдигна въпроса за необходимостта от строг контрол върху развитието и използването на технологии за изкуствен интелект.