Sztuczna inteligencja– jest dynamiczną i rozbudowaną dziedziną nauki obejmującą logikę rozmytą, obliczenia ewolucyjne, sieci neuronowe, sztuczne życie i robotykę.
W informatyce zajmuje się tworzeniem modeli zachowań inteligentnych oraz programów komputerowych symulujących te zachowania, a więc koncentruje się na konstruowaniu maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów. Podstawowym wyróżnikiem inteligencji człowieka jest umiejętność uczenia się, stąd analogicznie uczenie maszynowe jest jednym z ważniejszych elementów badań.
W artykułach przedstawiamy słownik pojęć związanych z uczeniem maszynowym (tutaj) oraz samą definicje uczenia maszynowego (tutaj).

Nikt chyba nie ma już wątpliwości, że sztuczna inteligencja w takiej czy innej formie, ale powstanie. W prawie każdym wystąpieniu, wykładzie czy artykule autorzy przywołują badania, w których naukowcy zajmujący się SI są pytani w którym roku będzie można powiedzieć, że maszyny myślą. 2020 czy 2030? Nikt nie zastanawia się „czy” ale wszyscy myślą „kiedy” ta rewolucja nastąpi i jakie będzie miała implikacje. Także implikacje prawne o tym piszemy (tutaj).

Na pewno korzystanie z myślących maszyn będzie rewolucją. Ale czy będzie „Nową Wieżą Babel”? W artykule o takim tytule cytujemy autorytety. Opowiadają o tym jak wyobrażają sobie zmiany związane ze sztuczna inteligencją. Niestety wizja Terminatora i Sky netu jest przeważającą narracją. (tutaj)

W publikacjach na świecie dotyczących pracy ze sztuczną inteligencją często porównuje się myślącą maszynę do black box-a do którego wrzucamy jakieś zapytanie i dostajemy odpowiedź. Wiemy o tym black box-sie, że szybko liczy (chciało by się powiedzieć zajebiście szybko, szybko to liczy kalkulator) ale czy jest to wystarczające, żeby mu zaufać? Musimy zrozumieć, jak działa, żeby decydować się na powierzenie mu decyzji czasami strategicznych. Dlatego musimy „otworzyć” black boxa. Musimy zrozumieć jak maszyna myśli.
Temu właśnie ma służyć ta seria artykułów. Na miarę Kapitana Hacka, subiektywnie, poślizgamy się po temacie sztucznej Inteligencji. Pobawimy się koncepcją przy okazji przekażemy trochę wiedzy. Oczywiście w kontekście bezpieczeństwa. (tutaj)

Błąd ChatGPT w systemie macOS pozwalał na umieszczenie szkodliwego oprogramowania w pamięci

Błąd ChatGPT w systemie macOS pozwalał na umieszczenie szkodliwego oprogramowania w pamięci

Załatana już na szczęście luka w zabezpieczeniach aplikacji ChatGPT firmy OpenAI na system macOS mogła umożliwić atakującym umieszczenie w pamięci aplikacji … Czytaj dalej

To już się dzieje. Opisujemy, jak działa malware generowany przez AI

HP, a właściwie część korporacji odpowiedzialna za cyberbezpieczeństwo, przechwyciła kampanię e-mailową zawierającą standardowe złośliwe oprogramowanie, które dostarczył dropper generowany przez … Czytaj dalej

Przykłady ataków zasilanych przez sztuczną inteligencję

Przykłady ataków zasilanych przez sztuczną inteligencję

Cyberataki wspomagane sztuczną inteligencją, napędzane przez szybki postęp w dziedzinie generatywnej AI, stały się poważnym problemem w obszarze cyberbezpieczeństwa. Hakerzy … Czytaj dalej

Meta zatrzymuje trenowanie modeli AI na użytkownikach w Unii Europejskiej

Meta oświadczyła kilka dni temu, że opóźnia prace mające na celu przeszkolenie dużych modeli językowych AI (LLM) przy użyciu treści … Czytaj dalej

Czy AI jest niebezpieczna

Czy AI jest niebezpieczna? List w intencji ochrony „sygnalistów”

Pytanie, czy sztuczna inteligencja jest bezpieczna, jest od jakiegoś czasu na ustach wszystkich.  Niedawno w książce „Góra pod morzem” Raya … Czytaj dalej

Tysiące modeli AI dotkniętych krytyczną podatnością RCE

Tysiące modeli AI dotkniętych krytyczną podatnością RCE

Krytyczna luka w popularnym pakiecie Pythona dla modeli AI typu LLM (ang. large-language models) może dotyczyć nawet 6000 modeli i … Czytaj dalej

przestępcze wykorzystanie generatywnej AI

Czy w dziedzinie sztucznej inteligencji cyberprzestępcy pozostają w tyle?

Podczas konferencji RSA 2024, która skończyła się 9 maja w San Francisco, Trend Micro przedstawił wyniki swojego dochodzenia przeprowadzonego w … Czytaj dalej

jailbreak Chatu GPT

ChatGPT wykorzystywany jako narzędzie do generowania phishingu

Manipulacje przy wykorzystaniu Chatu GPT stały się popularnym narzędziem cyberprzestępców i po prawie dwóch latach od publicznego udostępnienia przełomowego chatbota … Czytaj dalej

Próby regulacji prawnych AI

Próby regulacji prawnych AI oraz ChatGPT kontra Garante

Rosnąca popularność generatywnych systemów sztucznej inteligencji, takich jak ChatGPT, przyciąga coraz częściej uwagę organów regulacyjnych w Europie i po drugiej … Czytaj dalej

Cztery problemy z generatywną AI czekające nas w 2024 roku

Cztery problemy z generatywną AI czekające nas w 2024 roku

Generatywna sztuczna inteligencja w ostatnim roku ewoluowała w zawrotnym tempie. Dotyczy to również sfery IT, a w szczególności cyberbezpieczeństwa, gdzie … Czytaj dalej