Kampania: Maszyny przeciw Maszynom, czyli subiektywnie o SI (AI)
Sztuczna inteligencja– jest dynamiczną i rozbudowaną dziedziną nauki obejmującą logikę rozmytą, obliczenia ewolucyjne, sieci neuronowe, sztuczne życie i robotykę.
W informatyce zajmuje się tworzeniem modeli zachowań inteligentnych oraz programów komputerowych symulujących te zachowania, a więc koncentruje się na konstruowaniu maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów. Podstawowym wyróżnikiem inteligencji człowieka jest umiejętność uczenia się, stąd analogicznie uczenie maszynowe jest jednym z ważniejszych elementów badań.
W artykułach przedstawiamy słownik pojęć związanych z uczeniem maszynowym (tutaj) oraz samą definicje uczenia maszynowego (tutaj).
Nikt chyba nie ma już wątpliwości, że sztuczna inteligencja w takiej czy innej formie, ale powstanie. W prawie każdym wystąpieniu, wykładzie czy artykule autorzy przywołują badania, w których naukowcy zajmujący się SI są pytani w którym roku będzie można powiedzieć, że maszyny myślą. 2020 czy 2030? Nikt nie zastanawia się „czy” ale wszyscy myślą „kiedy” ta rewolucja nastąpi i jakie będzie miała implikacje. Także implikacje prawne o tym piszemy (tutaj).
Na pewno korzystanie z myślących maszyn będzie rewolucją. Ale czy będzie „Nową Wieżą Babel”? W artykule o takim tytule cytujemy autorytety. Opowiadają o tym jak wyobrażają sobie zmiany związane ze sztuczna inteligencją. Niestety wizja Terminatora i Sky netu jest przeważającą narracją. (tutaj)
W publikacjach na świecie dotyczących pracy ze sztuczną inteligencją często porównuje się myślącą maszynę do black box-a do którego wrzucamy jakieś zapytanie i dostajemy odpowiedź. Wiemy o tym black box-sie, że szybko liczy (chciało by się powiedzieć zajebiście szybko, szybko to liczy kalkulator) ale czy jest to wystarczające, żeby mu zaufać? Musimy zrozumieć, jak działa, żeby decydować się na powierzenie mu decyzji czasami strategicznych. Dlatego musimy „otworzyć” black boxa. Musimy zrozumieć jak maszyna myśli.
Temu właśnie ma służyć ta seria artykułów. Na miarę Kapitana Hacka, subiektywnie, poślizgamy się po temacie sztucznej Inteligencji. Pobawimy się koncepcją przy okazji przekażemy trochę wiedzy. Oczywiście w kontekście bezpieczeństwa. (tutaj)
Błąd ChatGPT w systemie macOS pozwalał na umieszczenie szkodliwego oprogramowania w pamięci
Załatana już na szczęście luka w zabezpieczeniach aplikacji ChatGPT firmy OpenAI na system macOS mogła umożliwić atakującym umieszczenie w pamięci aplikacji … Czytaj dalej
To już się dzieje. Opisujemy, jak działa malware generowany przez AI
HP, a właściwie część korporacji odpowiedzialna za cyberbezpieczeństwo, przechwyciła kampanię e-mailową zawierającą standardowe złośliwe oprogramowanie, które dostarczył dropper generowany przez … Czytaj dalej
Przykłady ataków zasilanych przez sztuczną inteligencję
Cyberataki wspomagane sztuczną inteligencją, napędzane przez szybki postęp w dziedzinie generatywnej AI, stały się poważnym problemem w obszarze cyberbezpieczeństwa. Hakerzy … Czytaj dalej
Meta zatrzymuje trenowanie modeli AI na użytkownikach w Unii Europejskiej
Meta oświadczyła kilka dni temu, że opóźnia prace mające na celu przeszkolenie dużych modeli językowych AI (LLM) przy użyciu treści … Czytaj dalej
Czy AI jest niebezpieczna? List w intencji ochrony „sygnalistów”
Pytanie, czy sztuczna inteligencja jest bezpieczna, jest od jakiegoś czasu na ustach wszystkich. Niedawno w książce „Góra pod morzem” Raya … Czytaj dalej
Tysiące modeli AI dotkniętych krytyczną podatnością RCE
Krytyczna luka w popularnym pakiecie Pythona dla modeli AI typu LLM (ang. large-language models) może dotyczyć nawet 6000 modeli i … Czytaj dalej
Czy w dziedzinie sztucznej inteligencji cyberprzestępcy pozostają w tyle?
Podczas konferencji RSA 2024, która skończyła się 9 maja w San Francisco, Trend Micro przedstawił wyniki swojego dochodzenia przeprowadzonego w … Czytaj dalej
ChatGPT wykorzystywany jako narzędzie do generowania phishingu
Manipulacje przy wykorzystaniu Chatu GPT stały się popularnym narzędziem cyberprzestępców i po prawie dwóch latach od publicznego udostępnienia przełomowego chatbota … Czytaj dalej
Próby regulacji prawnych AI oraz ChatGPT kontra Garante
Rosnąca popularność generatywnych systemów sztucznej inteligencji, takich jak ChatGPT, przyciąga coraz częściej uwagę organów regulacyjnych w Europie i po drugiej … Czytaj dalej
Cztery problemy z generatywną AI czekające nas w 2024 roku
Generatywna sztuczna inteligencja w ostatnim roku ewoluowała w zawrotnym tempie. Dotyczy to również sfery IT, a w szczególności cyberbezpieczeństwa, gdzie … Czytaj dalej