Kampania: Maszyny przeciw Maszynom, czyli subiektywnie o SI (AI)
Sztuczna inteligencja– jest dynamiczną i rozbudowaną dziedziną nauki obejmującą logikę rozmytą, obliczenia ewolucyjne, sieci neuronowe, sztuczne życie i robotykę.
W informatyce zajmuje się tworzeniem modeli zachowań inteligentnych oraz programów komputerowych symulujących te zachowania, a więc koncentruje się na konstruowaniu maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów. Podstawowym wyróżnikiem inteligencji człowieka jest umiejętność uczenia się, stąd analogicznie uczenie maszynowe jest jednym z ważniejszych elementów badań.
W artykułach przedstawiamy słownik pojęć związanych z uczeniem maszynowym (tutaj) oraz samą definicje uczenia maszynowego (tutaj).
Nikt chyba nie ma już wątpliwości, że sztuczna inteligencja w takiej czy innej formie, ale powstanie. W prawie każdym wystąpieniu, wykładzie czy artykule autorzy przywołują badania, w których naukowcy zajmujący się SI są pytani w którym roku będzie można powiedzieć, że maszyny myślą. 2020 czy 2030? Nikt nie zastanawia się „czy” ale wszyscy myślą „kiedy” ta rewolucja nastąpi i jakie będzie miała implikacje. Także implikacje prawne o tym piszemy (tutaj).
Na pewno korzystanie z myślących maszyn będzie rewolucją. Ale czy będzie „Nową Wieżą Babel”? W artykule o takim tytule cytujemy autorytety. Opowiadają o tym jak wyobrażają sobie zmiany związane ze sztuczna inteligencją. Niestety wizja Terminatora i Sky netu jest przeważającą narracją. (tutaj)
W publikacjach na świecie dotyczących pracy ze sztuczną inteligencją często porównuje się myślącą maszynę do black box-a do którego wrzucamy jakieś zapytanie i dostajemy odpowiedź. Wiemy o tym black box-sie, że szybko liczy (chciało by się powiedzieć zajebiście szybko, szybko to liczy kalkulator) ale czy jest to wystarczające, żeby mu zaufać? Musimy zrozumieć, jak działa, żeby decydować się na powierzenie mu decyzji czasami strategicznych. Dlatego musimy „otworzyć” black boxa. Musimy zrozumieć jak maszyna myśli.
Temu właśnie ma służyć ta seria artykułów. Na miarę Kapitana Hacka, subiektywnie, poślizgamy się po temacie sztucznej Inteligencji. Pobawimy się koncepcją przy okazji przekażemy trochę wiedzy. Oczywiście w kontekście bezpieczeństwa. (tutaj)

Chiński ChatGPT wektorem ataku
Dzisiaj znowu piszemy o ChacieGPT. Tym razem jednak nie o tym od OpenAI, ale o jego chińskim odpowiedniku. Nazywa się … Czytaj dalej

Jak AI zmieniło metody ataków DDoS?
Usługi typu booter/stresser, znane również zbiorczo jako branża DDoS-for-hire, są w dzisiejszych czasach dostępne w dark webie, co znacznie ułatwia … Czytaj dalej

DeepSeek a problemy z socjotechniką
O DeepSeek w kontekście podatności modelu R1 już na Hacku pisaliśmy. Postanowiliśmy jednak wrócić do tematu, by zwrócić uwagę na … Czytaj dalej

Cyberatak na DeepSeek a doniesienia o podatności modelu R1
Z całą pewnością tematem branżowym numer jeden poprzedniego tygodnia był DeepSeek – chińska firma zajmująca się sztuczną inteligencją. Najczęściej pisano … Czytaj dalej

ChatGPT ukarany grzywną w wysokości 15 mln euro
Włoski organ ochrony danych nałożył na producenta ChatGPT, czyli korporację OpenAI, grzywnę w wysokości 15 mln euro za sposób, w … Czytaj dalej

Jailbreak ChatGPT: Naukowcy omijają zabezpieczenia AI, wykorzystując kodowanie szesnastkowe i emotikony!
W dzisiejszym poście opiszemy, jak nowa technika jailbreaku oszukała ChatGPT, zmuszając go do wygenerowania exploitów Pythona i złośliwego narzędzia do … Czytaj dalej

Jak hakerzy wykorzystują ChatGPT? Raport OpenAI
W ekipie Kapitana zwracamy szczególną uwagę na bezpieczeństwo w produkcji tej części oprogramowania, która związana jest ze stale rozwijającym się … Czytaj dalej

Błąd ChatGPT w systemie macOS pozwalał na umieszczenie szkodliwego oprogramowania w pamięci
Załatana już na szczęście luka w zabezpieczeniach aplikacji ChatGPT firmy OpenAI na system macOS mogła umożliwić atakującym umieszczenie w pamięci aplikacji … Czytaj dalej

To już się dzieje. Opisujemy, jak działa malware generowany przez AI
HP, a właściwie część korporacji odpowiedzialna za cyberbezpieczeństwo, przechwyciła kampanię e-mailową zawierającą standardowe złośliwe oprogramowanie, które dostarczył dropper generowany przez … Czytaj dalej

Przykłady ataków zasilanych przez sztuczną inteligencję
Cyberataki wspomagane sztuczną inteligencją, napędzane przez szybki postęp w dziedzinie generatywnej AI, stały się poważnym problemem w obszarze cyberbezpieczeństwa. Hakerzy … Czytaj dalej