Menu dostępności

Maszyny przeciw Maszynom, czyli subiektywnie o SI (AI)

Sztuczna inteligencja– jest dynamiczną i rozbudowaną dziedziną nauki obejmującą logikę rozmytą, obliczenia ewolucyjne, sieci neuronowe, sztuczne życie i robotykę.
W informatyce zajmuje się tworzeniem modeli zachowań inteligentnych oraz programów komputerowych symulujących te zachowania, a więc koncentruje się na konstruowaniu maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów. Podstawowym wyróżnikiem inteligencji człowieka jest umiejętność uczenia się, stąd analogicznie uczenie maszynowe jest jednym z ważniejszych elementów badań.
W artykułach przedstawiamy słownik pojęć związanych z uczeniem maszynowym (tutaj) oraz samą definicje uczenia maszynowego (tutaj).

Nikt chyba nie ma już wątpliwości, że sztuczna inteligencja w takiej czy innej formie, ale powstanie. W prawie każdym wystąpieniu, wykładzie czy artykule autorzy przywołują badania, w których naukowcy zajmujący się SI są pytani w którym roku będzie można powiedzieć, że maszyny myślą. 2020 czy 2030? Nikt nie zastanawia się „czy” ale wszyscy myślą „kiedy” ta rewolucja nastąpi i jakie będzie miała implikacje. Także implikacje prawne o tym piszemy (tutaj).

Na pewno korzystanie z myślących maszyn będzie rewolucją. Ale czy będzie „Nową Wieżą Babel”? W artykule o takim tytule cytujemy autorytety. Opowiadają o tym jak wyobrażają sobie zmiany związane ze sztuczna inteligencją. Niestety wizja Terminatora i Sky netu jest przeważającą narracją. (tutaj)

W publikacjach na świecie dotyczących pracy ze sztuczną inteligencją często porównuje się myślącą maszynę do black box-a do którego wrzucamy jakieś zapytanie i dostajemy odpowiedź. Wiemy o tym black box-sie, że szybko liczy (chciało by się powiedzieć zajebiście szybko, szybko to liczy kalkulator) ale czy jest to wystarczające, żeby mu zaufać? Musimy zrozumieć, jak działa, żeby decydować się na powierzenie mu decyzji czasami strategicznych. Dlatego musimy „otworzyć” black boxa. Musimy zrozumieć jak maszyna myśli.
Temu właśnie ma służyć ta seria artykułów. Na miarę Kapitana Hacka, subiektywnie, poślizgamy się po temacie sztucznej Inteligencji. Pobawimy się koncepcją przy okazji przekażemy trochę wiedzy. Oczywiście w kontekście bezpieczeństwa. (tutaj)

Raport Microsoft Data Security Index – jak chronić dane w erze AI

Raport Microsoft Data Security Index – jak chronić dane w erze AI

Wraz z gwałtownym wzrostem liczby zastosowań sztucznej inteligencji organizacje stoją przed wyzwaniem, jak wykorzystać generatywne i agentowe technologie AI do zwiększenia produktywności i innowacji, nie w...
Reprompt – luka w Microsoft Copilot pozwalała kraść dane jednym kliknięciem

Reprompt – luka w Microsoft Copilot pozwalała kraść dane jednym kliknięciem

Specjaliści z Varonis Threat Labs odkryli nowy, niepokojący wektor ataku skierowany przeciwko Microsoft Copilot Personal - konsumenckiej wersji asystenta opartego na sztucznej inteligencji. Technika n...
Ile wynosi wynagrodzenie prezesa, czyli czego możemy się dowiedzieć od źle zaimplementowanej GenAI

Ile wynosi wynagrodzenie prezesa, czyli czego możemy się dowiedzieć od źle zaimplementowanej GenAI

Według Gartnera około 55% organizacji wdrożyło lub testuje generatywną sztuczną inteligencję (Generative AI). Oprócz oczywistych korzyści, nieprzemyślane działania w tym zakresie niosą spore ryzyko. Spr...
Nowe zagrożenie – złośliwe rozszerzenia Chrome kradną rozmowy z ChatGPT i DeepSeek

Nowe zagrożenie – złośliwe rozszerzenia Chrome kradną rozmowy z ChatGPT i DeepSeek

Specjaliści z Ox Security odkryli nową falę złośliwych rozszerzeń Chrome, ukierunkowanych na użytkowników narzędzi opartych na sztucznej inteligencji - w szczególności Chatu GPT oraz serwisu DeepSeek....
Jak modele LLM automatyzują cyberprzestępczość

Jak modele LLM automatyzują cyberprzestępczość

Każdy Czytelnik Kapitana Hacka wie, że złośliwe LLM-y ułatwiają mniej doświadczonym cyberprzestępcom przeprowadzanie ataków. Potwierdzają to badacze z Palo Alto Networks, którzy przeanalizowali dwa niedaw...
ChatGPT podatny – można atakować integracje z kalendarzem!

ChatGPT podatny – można atakować integracje z kalendarzem!

Nowej integracji kalendarza z Chatem GPT da się użyć do wykonywania poleceń atakującego. Badacze z EdisonWatch, firmy zajmującej się bezpieczeństwem sztucznej inteligencji, pokazali, jak można wykorzys...
Pierwszy światowy przypadek wykrycia luki w oprogramowaniu przez AI

Pierwszy światowy przypadek wykrycia luki w oprogramowaniu przez AI

Big Sleep to agent sztucznej inteligencji opracowany przez zespoły DeepMind i Project Zero od Google. Został zaprojektowany do aktywnego wyszukiwania nieznanych luk w zabezpieczeniach oprogramowania. W...
AI vs. bezpieczeństwo, czyli chatboty promujące phishing i złośliwe linki oraz AI Poisoning

AI vs. bezpieczeństwo, czyli chatboty promujące phishing i złośliwe linki oraz AI Poisoning

Wraz z popularyzacją generatywnej sztucznej inteligencji rośnie liczba zagrożeń płynących z jej niewłaściwego zastosowania. Najnowsze analizy, opublikowane przez Netcraft, pokazują, że popularne modele j...
Jak powinniśmy podejść do ryzyka utraty danych przez narzędzia GenAI?

Jak powinniśmy podejść do ryzyka utraty danych przez narzędzia GenAI?

Gdy pod koniec 2022 r. narzędzia generatywnej sztucznej inteligencji stały się szeroko dostępne, nie tylko osoby rozumiejące ich technikalia zwróciły na nie uwagę. Pracownicy ze wszystkich branż natychmi...
Chiński ChatGPT wektorem ataku

Chiński ChatGPT wektorem ataku

Dzisiaj znowu piszemy o ChacieGPT. Tym razem jednak nie o tym od OpenAI, ale o jego chińskim odpowiedniku. Nazywa się tak samo, ale jest narzędziem typu open source stworzonym przez chińskiego programistę, zapr...