home All News open_in_new Full Article

Sztuczna inteligencja oszukana wierszem. Tak łatwo obejść zabezpieczenia LLM?

Najnowsze badania pokazują, że już samo przekazanie polecenia chatbotowi w formie poetyckiej znacząco zwiększa ryzyko obejścia zabezpieczeń. W eksperymencie przeprowadzonym przez badaczy z Uniwersytetu La Sapienza niektóre modele dały się nabrać w ponad 90 proc. przypadków, a skuteczność zależała od wielkości i typu modelu.


today 3 d. ago attach_file Other

attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other
attach_file Other


ID: 4119567769
Add Watch Country

arrow_drop_down