Jailbreak ChatGPT: Naukowcy omijają zabezpieczenia AI, wykorzystując kodowanie szesnastkowe i emotikony!
             
W dzisiejszym poście opiszemy, jak nowa technika jailbreaku oszukała ChatGPT, zmuszając go do wygenerowania exploitów Pythona i złośliwego narzędzia do wstrzykiwania kodu SQL. Wykorzystano do tego instru...        
                
            
                                                                                        
                                                                                        
                                                                                        
                                                                                        
                                                                                        








