Menu dostępności

Maszyny przeciw Maszynom, czyli subiektywnie o SI (AI)

Błąd ChatGPT w systemie macOS pozwalał na umieszczenie szkodliwego oprogramowania w pamięci

Błąd ChatGPT w systemie macOS pozwalał na umieszczenie szkodliwego oprogramowania w pamięci

Załatana już na szczęście luka w zabezpieczeniach aplikacji ChatGPT firmy OpenAI na system macOS mogła umożliwić atakującym umieszczenie w pamięci aplikacji trwałego oprogramowania szpiegującego. Technika ta zdobyła...
To już się dzieje. Opisujemy, jak działa malware generowany przez AI

To już się dzieje. Opisujemy, jak działa malware generowany przez AI

HP, a właściwie część korporacji odpowiedzialna za cyberbezpieczeństwo, przechwyciła kampanię e-mailową zawierającą standardowe złośliwe oprogramowanie, które dostarczył dropper generowany przez sztuczn...
Przykłady ataków zasilanych przez sztuczną inteligencję

Przykłady ataków zasilanych przez sztuczną inteligencję

Cyberataki wspomagane sztuczną inteligencją, napędzane przez szybki postęp w dziedzinie generatywnej AI, stały się poważnym problemem w obszarze cyberbezpieczeństwa. Hakerzy coraz częściej wykorzystują technologi...
Meta zatrzymuje trenowanie modeli AI na użytkownikach w Unii Europejskiej

Meta zatrzymuje trenowanie modeli AI na użytkownikach w Unii Europejskiej

Meta oświadczyła kilka dni temu, że opóźnia prace mające na celu przeszkolenie dużych modeli językowych AI (LLM) przy użyciu treści publicznych udostępnianych przez dorosłych użytkowników na Facebooku...
Czy AI jest niebezpieczna? List w intencji ochrony „sygnalistów”

Czy AI jest niebezpieczna? List w intencji ochrony „sygnalistów”

Pytanie, czy sztuczna inteligencja jest bezpieczna, jest od jakiegoś czasu na ustach wszystkich.  Niedawno w książce „Góra pod morzem” Raya Naylera natknąłem się na interesujący fragment (przywołuj...
Tysiące modeli AI dotkniętych krytyczną podatnością RCE

Tysiące modeli AI dotkniętych krytyczną podatnością RCE

Krytyczna luka w popularnym pakiecie Pythona dla modeli AI typu LLM (ang. large-language models) może dotyczyć nawet 6000 modeli i prowadzić do ataków na łańcuch dostaw. Niedawno stwierdzono, że pa...
Czy w dziedzinie sztucznej inteligencji cyberprzestępcy pozostają w tyle?

Czy w dziedzinie sztucznej inteligencji cyberprzestępcy pozostają w tyle?

Podczas konferencji RSA 2024, która skończyła się 9 maja w San Francisco, Trend Micro przedstawił wyniki swojego dochodzenia przeprowadzonego w 2023 r. w sprawie przestępczego wykorzystania generatywnej AI. P...
ChatGPT wykorzystywany jako narzędzie do generowania phishingu

ChatGPT wykorzystywany jako narzędzie do generowania phishingu

Manipulacje przy wykorzystaniu Chatu GPT stały się popularnym narzędziem cyberprzestępców i po prawie dwóch latach od publicznego udostępnienia przełomowego chatbota ciągle rozprzestrzeniają się na fo...
Próby regulacji prawnych AI oraz ChatGPT kontra Garante

Próby regulacji prawnych AI oraz ChatGPT kontra Garante

Rosnąca popularność generatywnych systemów sztucznej inteligencji, takich jak ChatGPT, przyciąga coraz częściej uwagę organów regulacyjnych w Europie i po drugiej stronie Atlantyku. W zeszłym tygodniu...
Cztery problemy z generatywną AI czekające nas w 2024 roku

Cztery problemy z generatywną AI czekające nas w 2024 roku

Generatywna sztuczna inteligencja w ostatnim roku ewoluowała w zawrotnym tempie. Dotyczy to również sfery IT, a w szczególności cyberbezpieczeństwa, gdzie uczenie maszynowe jest wykorzystywane od lat....