Sztuczna inteligencja oszukana wierszem. Tak łatwo obejść zabezpieczenia LLM?
Zdjęcie: Dwie dłonie trzymające smartfon z otwartą aplikacją ChatGPT, na stole obok leżą okulary na cienkich oprawkach, część przedramienia z tatuażem widoczna na jasnym tle geometrycznym.
Najnowsze badania pokazują, iż już samo przekazanie polecenia chatbotowi w formie poetyckiej znacząco zwiększa ryzyko obejścia zabezpieczeń. W eksperymencie przeprowadzonym przez badaczy z Uniwersytetu La Sapienza niektóre modele dały się nabrać w ponad 90 proc. przypadków, a skuteczność zależała od wielkości i typu modelu.









