Експертът отбеляза, че е твърде рано да се говори за пълната безопасност на Jeenets. Това важи особено за системите, базирани на Multiagen, където няколко AI с различни функции и достъп работят заедно. Тяхната архитектура все още е експериментална и няма единично определение на термина „Ai-агент“. Вероятно, за подобни системи през следващите няколко години, те ще започнат да разработват застрахователни механизми, които могат да поемат контрол по време на провалите на AI.
Основната опасност е, че автономните Jeenet имат достъп до важни инструменти и вземат решения без постоянен контрол на човека. Ако нападателят успешно струва защитата, AI може да предприеме нежелани действия, например, да наруши стандартите или да разкрие поверителна информация.
За да намали рисковете, Олег Рогов препоръчва интегриран подход към сигурността.