Menu dostępności

Maszyny przeciw Maszynom, czyli subiektywnie o SI (AI)

Jak hakerzy wykorzystują ChatGPT? Raport OpenAI

Jak hakerzy wykorzystują ChatGPT? Raport OpenAI

W ekipie Kapitana zwracamy szczególną uwagę na bezpieczeństwo w produkcji tej części oprogramowania, która związana jest ze stale rozwijającym się uniwersum sztucznej inteligencji. Nie tylko pisaliśmy...
Błąd ChatGPT w systemie macOS pozwalał na umieszczenie szkodliwego oprogramowania w pamięci

Błąd ChatGPT w systemie macOS pozwalał na umieszczenie szkodliwego oprogramowania w pamięci

Załatana już na szczęście luka w zabezpieczeniach aplikacji ChatGPT firmy OpenAI na system macOS mogła umożliwić atakującym umieszczenie w pamięci aplikacji trwałego oprogramowania szpiegującego. Technika ta zdobyła...
To już się dzieje. Opisujemy, jak działa malware generowany przez AI

To już się dzieje. Opisujemy, jak działa malware generowany przez AI

HP, a właściwie część korporacji odpowiedzialna za cyberbezpieczeństwo, przechwyciła kampanię e-mailową zawierającą standardowe złośliwe oprogramowanie, które dostarczył dropper generowany przez sztuczn...
Przykłady ataków zasilanych przez sztuczną inteligencję

Przykłady ataków zasilanych przez sztuczną inteligencję

Cyberataki wspomagane sztuczną inteligencją, napędzane przez szybki postęp w dziedzinie generatywnej AI, stały się poważnym problemem w obszarze cyberbezpieczeństwa. Hakerzy coraz częściej wykorzystują technologi...
Meta zatrzymuje trenowanie modeli AI na użytkownikach w Unii Europejskiej

Meta zatrzymuje trenowanie modeli AI na użytkownikach w Unii Europejskiej

Meta oświadczyła kilka dni temu, że opóźnia prace mające na celu przeszkolenie dużych modeli językowych AI (LLM) przy użyciu treści publicznych udostępnianych przez dorosłych użytkowników na Facebooku...
Czy AI jest niebezpieczna? List w intencji ochrony „sygnalistów”

Czy AI jest niebezpieczna? List w intencji ochrony „sygnalistów”

Pytanie, czy sztuczna inteligencja jest bezpieczna, jest od jakiegoś czasu na ustach wszystkich.  Niedawno w książce „Góra pod morzem” Raya Naylera natknąłem się na interesujący fragment (przywołuj...
Tysiące modeli AI dotkniętych krytyczną podatnością RCE

Tysiące modeli AI dotkniętych krytyczną podatnością RCE

Krytyczna luka w popularnym pakiecie Pythona dla modeli AI typu LLM (ang. large-language models) może dotyczyć nawet 6000 modeli i prowadzić do ataków na łańcuch dostaw. Niedawno stwierdzono, że pa...
Czy w dziedzinie sztucznej inteligencji cyberprzestępcy pozostają w tyle?

Czy w dziedzinie sztucznej inteligencji cyberprzestępcy pozostają w tyle?

Podczas konferencji RSA 2024, która skończyła się 9 maja w San Francisco, Trend Micro przedstawił wyniki swojego dochodzenia przeprowadzonego w 2023 r. w sprawie przestępczego wykorzystania generatywnej AI. P...
ChatGPT wykorzystywany jako narzędzie do generowania phishingu

ChatGPT wykorzystywany jako narzędzie do generowania phishingu

Manipulacje przy wykorzystaniu Chatu GPT stały się popularnym narzędziem cyberprzestępców i po prawie dwóch latach od publicznego udostępnienia przełomowego chatbota ciągle rozprzestrzeniają się na fo...
Próby regulacji prawnych AI oraz ChatGPT kontra Garante

Próby regulacji prawnych AI oraz ChatGPT kontra Garante

Rosnąca popularność generatywnych systemów sztucznej inteligencji, takich jak ChatGPT, przyciąga coraz częściej uwagę organów regulacyjnych w Europie i po drugiej stronie Atlantyku. W zeszłym tygodniu...