Menu dostępności

Maszyny przeciw Maszynom, czyli subiektywnie o SI (AI)

Sztuczna inteligencja– jest dynamiczną i rozbudowaną dziedziną nauki obejmującą logikę rozmytą, obliczenia ewolucyjne, sieci neuronowe, sztuczne życie i robotykę.
W informatyce zajmuje się tworzeniem modeli zachowań inteligentnych oraz programów komputerowych symulujących te zachowania, a więc koncentruje się na konstruowaniu maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów. Podstawowym wyróżnikiem inteligencji człowieka jest umiejętność uczenia się, stąd analogicznie uczenie maszynowe jest jednym z ważniejszych elementów badań.
W artykułach przedstawiamy słownik pojęć związanych z uczeniem maszynowym (tutaj) oraz samą definicje uczenia maszynowego (tutaj).

Nikt chyba nie ma już wątpliwości, że sztuczna inteligencja w takiej czy innej formie, ale powstanie. W prawie każdym wystąpieniu, wykładzie czy artykule autorzy przywołują badania, w których naukowcy zajmujący się SI są pytani w którym roku będzie można powiedzieć, że maszyny myślą. 2020 czy 2030? Nikt nie zastanawia się „czy” ale wszyscy myślą „kiedy” ta rewolucja nastąpi i jakie będzie miała implikacje. Także implikacje prawne o tym piszemy (tutaj).

Na pewno korzystanie z myślących maszyn będzie rewolucją. Ale czy będzie „Nową Wieżą Babel”? W artykule o takim tytule cytujemy autorytety. Opowiadają o tym jak wyobrażają sobie zmiany związane ze sztuczna inteligencją. Niestety wizja Terminatora i Sky netu jest przeważającą narracją. (tutaj)

W publikacjach na świecie dotyczących pracy ze sztuczną inteligencją często porównuje się myślącą maszynę do black box-a do którego wrzucamy jakieś zapytanie i dostajemy odpowiedź. Wiemy o tym black box-sie, że szybko liczy (chciało by się powiedzieć zajebiście szybko, szybko to liczy kalkulator) ale czy jest to wystarczające, żeby mu zaufać? Musimy zrozumieć, jak działa, żeby decydować się na powierzenie mu decyzji czasami strategicznych. Dlatego musimy „otworzyć” black boxa. Musimy zrozumieć jak maszyna myśli.
Temu właśnie ma służyć ta seria artykułów. Na miarę Kapitana Hacka, subiektywnie, poślizgamy się po temacie sztucznej Inteligencji. Pobawimy się koncepcją przy okazji przekażemy trochę wiedzy. Oczywiście w kontekście bezpieczeństwa. (tutaj)

Shadow AI Risk, czyli dlaczego aplikacje SaaS są narażone na kompromitację

Shadow AI Risk, czyli dlaczego aplikacje SaaS są narażone na kompromitację

Dzisiaj omówimy kolejny dowód na to, że myślenie o bezpieczeństwie w kontekście tożsamości powinno być nowym paradygmatem dla działów zgodności i bezpieczeństwa. Okazją do ponownego podkreślenia tego faktu jes...
Nowy wymiar cyberwojny: chińskie operacje wpływu i ataki planowane z użyciem ChatGPT – tło techniczne incydentu

Nowy wymiar cyberwojny: chińskie operacje wpływu i ataki planowane z użyciem ChatGPT – tło techniczne incydentu

W ostatnich dniach świat technologii i cyberbezpieczeństwa obiegła informacja o tym, że chińscy aktorzy - w tym osoby związane ze służbami państwowymi - wykorzystywali system OpenAI ChatGPT nie tylko do...
Jak hakerzy wykorzystują AI do budowania fałszywych stron internetowych

Jak hakerzy wykorzystują AI do budowania fałszywych stron internetowych

W erze generatywnej sztucznej inteligencji cyberprzestępcy zyskali możliwość tworzenia przekonująco wyglądających stron internetowych w ciągu kilku minut, bez konieczności posiadania umiejętności programowa...
Raport Microsoft Data Security Index – jak chronić dane w erze AI

Raport Microsoft Data Security Index – jak chronić dane w erze AI

Wraz z gwałtownym wzrostem liczby zastosowań sztucznej inteligencji organizacje stoją przed wyzwaniem, jak wykorzystać generatywne i agentowe technologie AI do zwiększenia produktywności i innowacji, nie w...
Reprompt – luka w Microsoft Copilot pozwalała kraść dane jednym kliknięciem

Reprompt – luka w Microsoft Copilot pozwalała kraść dane jednym kliknięciem

Specjaliści z Varonis Threat Labs odkryli nowy, niepokojący wektor ataku skierowany przeciwko Microsoft Copilot Personal - konsumenckiej wersji asystenta opartego na sztucznej inteligencji. Technika n...
Ile wynosi wynagrodzenie prezesa, czyli czego możemy się dowiedzieć od źle zaimplementowanej GenAI

Ile wynosi wynagrodzenie prezesa, czyli czego możemy się dowiedzieć od źle zaimplementowanej GenAI

Według Gartnera około 55% organizacji wdrożyło lub testuje generatywną sztuczną inteligencję (Generative AI). Oprócz oczywistych korzyści, nieprzemyślane działania w tym zakresie niosą spore ryzyko. Spr...
Nowe zagrożenie – złośliwe rozszerzenia Chrome kradną rozmowy z ChatGPT i DeepSeek

Nowe zagrożenie – złośliwe rozszerzenia Chrome kradną rozmowy z ChatGPT i DeepSeek

Specjaliści z Ox Security odkryli nową falę złośliwych rozszerzeń Chrome, ukierunkowanych na użytkowników narzędzi opartych na sztucznej inteligencji - w szczególności Chatu GPT oraz serwisu DeepSeek....
Jak modele LLM automatyzują cyberprzestępczość

Jak modele LLM automatyzują cyberprzestępczość

Każdy Czytelnik Kapitana Hacka wie, że złośliwe LLM-y ułatwiają mniej doświadczonym cyberprzestępcom przeprowadzanie ataków. Potwierdzają to badacze z Palo Alto Networks, którzy przeanalizowali dwa niedaw...
ChatGPT podatny – można atakować integracje z kalendarzem!

ChatGPT podatny – można atakować integracje z kalendarzem!

Nowej integracji kalendarza z Chatem GPT da się użyć do wykonywania poleceń atakującego. Badacze z EdisonWatch, firmy zajmującej się bezpieczeństwem sztucznej inteligencji, pokazali, jak można wykorzys...
Pierwszy światowy przypadek wykrycia luki w oprogramowaniu przez AI

Pierwszy światowy przypadek wykrycia luki w oprogramowaniu przez AI

Big Sleep to agent sztucznej inteligencji opracowany przez zespoły DeepMind i Project Zero od Google. Został zaprojektowany do aktywnego wyszukiwania nieznanych luk w zabezpieczeniach oprogramowania. W...