Jailbreak ChatGPT: Naukowcy omijają zabezpieczenia AI, wykorzystując kodowanie szesnastkowe i emotikony!
W dzisiejszym poście opiszemy, jak nowa technika jailbreaku oszukała ChatGPT, zmuszając go do wygenerowania exploitów Pythona i złośliwego narzędzia do wstrzykiwania kodu SQL. Wykorzystano do tego instru...









