Breaking news
Zapraszamy do współpracy w 2025 r.! Po więcej informacji skontaktuj się z nami mailowo: [email protected]

*Artykuł sponsorowany* Ostatnio wiele uwagi w mediach poświęca się sztucznej inteligencji i nie bez powodu. Jest oczywiste, że sztuczna inteligencja będzie miała ogromny wpływ na przyszłość. Szczególnie dotyczy to cyberbezpieczeństwa defensywnego, gdzie AI jest wykorzystywana przez BlackBerry już od ponad dekady.

 

BlackBerry

 

W przestrzeni problemowej tak szerokiej, jak cyberbezpieczeństwo, należy pamiętać, że różne modele sztucznej inteligencji dobrze radzą sobie z rozwiązywaniem różnych problemów. Jeśli chodzi o obronę przed zagrożeniami, sztuczną inteligencję można podzielić na dwie ogólne kategorie:

  • Predykcyjne modele sztucznej inteligencji – automatycznie powstrzymują bieżące zagrożenia i przewidują ataki dnia zerowego, działając na wczesnym etapie łańcucha ataku. Modele te podejmują decyzje dotyczące złośliwej aktywności, proaktywnie chroniąc organizacje przed zagrożeniami. Warto podkreślić, że predykcyjne modele nie rozmawiają z ludźmi jak chatboty.
  • Modele generatywnej sztucznej inteligencji – interaktywnie współpracują z ludźmi, pomagając w zrozumieniu dużej ilości informacji. Celem GenAI jest przyspieszenie zrozumienia sytuacji lub bazy wiedzy, umożliwiając bardziej świadome decyzje. Modele GenAI nie blokują proaktywnie ataków.

Cylance AI wykorzystuje lokalny model matematyczny, który rzadko wymaga aktualizacji i bazuje na predyktywnej sztucznej inteligiencji i uczeniu maszynowym do analizy obiektów i ich działań, zamiast tradycyjnych sygnatur. To narzędzie pomaga w utrzymaniu integralności i bezpieczeństwa infrastruktury przemysłowej. W kontekście środowiska OT, gdzie stabilność i niezawodność systemów są kluczowe, Cylance AI może stanowić istotne zabezpieczenie przed ewentualnymi atakami, chroniąc infrastrukturę krytyczną.

Dodatkowo, jest to "lekki" agent, eliminujący konieczność codziennych aktualizacji i skanowań, co przekłada się na ogromne oszczędności energii zużywanej podczas wykonywania tych operacji. Dzięki temu zakupiony sprzęt może służyć znacznie dłużej na produkcji.

Skąd więc wiemy, czy predykcyjna sztuczna inteligencja rzeczywiście potrafi przewidywać? Czy model prawidłowo uczy się na podstawie tego, co już zostało uznane za dobre w przewidywaniu przyszłych ataków?… lub inaczej mówiąc, czy faktycznie się broni?

Oceniamy naszą sztuczną inteligencję na poziomie kontroli wewnętrznej wykraczającym poza to, co robią inni dostawcy, korzystając z opracowanych przez nas wskaźników. Nie możemy przewijać czasu do przodu ani do tyłu, więc ilekroć pojawia się nowy atak typu zero-day, sprawdzamy, czy nasze starsze modele również mogły mu zapobiec. Test potwierdza, że nasz wybór funkcji i różnorodność są zoptymalizowane – nie tylko w przypadku najnowocześniejszych iteracji modelu, ale także w uogólnionej skali czasu.

To „papierek lakmusowy” określający, jak dobrze potrafimy przewidywać nowe zagrożenia.

Podczas gdy wiele rozwiązań mówi o tym, ile godzin lub dni PO nowym zagrożeniu potrzeba, zanim będą mogły się przed nim chronić, Cylance AI mówi o tym, ile MIESIĘCY lub lat PRZED zagrożeniem chronimy naszych klientów.

Świetnym przykładem jest CONTI. Gdyby Colonial rzeczywiście miał Cylance'a na swoich punktach końcowych, byliby przed nim chronieni. Co więcej, gdyby mieli urządzenie, które było na tyle przestarzałe, że nie aktualizowało naszego agenta przez ponad 5 LAT… Nadal byliby chronieni.  (Nie to, że zalecamy czekanie tak długo z aktualizacją środków zaradczych!).

Demokratyzacja sztucznej inteligencji napędza nową falę zagrożeń cybernetycznych z niesamowitą szybkością i skalą. Sam człowiek nie jest w stanie obronić się przed szybkością, skalą i złożonością ataków. Sztuczna inteligencja jest wymagana do automatycznej ochrony przed atakami, a także pomagania ludziom w szybszym zrozumieniu sytuacji.

Obecnie znajdujemy się w nowym punkcie zwrotnym, który będzie miał głęboki wpływ na technologię, bezpieczeństwo i ludzkość jako całość. Demokratyzacja sztucznej inteligencji, która jest łatwo dostępna dla mas. Stosowana sztuczna inteligencja do niedawna ograniczała się jedynie do tych, które dysponują znaczącymi zasobami finansowymi i ludzkimi. Jednak w przypadku nowszych, łatwych w użyciu modeli i narzędzi, bariera wejścia została obniżona. Już teraz obserwujemy trzecią falę, podczas której widzimy, że sztuczną inteligencję można wykorzystać do projektowania lepszych i szybszych ataków phishingowych i socjotechnicznych. Polimorficzne złośliwe oprogramowanie będzie koszmarem dzięki szybkości sztucznej inteligencji, która przemyka przed oczami narzędzi monitorujących SOC i wykonuje ładunki szybciej i szerzej, zanim w ogóle zostaną zaobserwowane. Wychodzimy z fazy „jeśli zostaniesz zaatakowany” i wkraczamy w fazę „kiedy zakończy się atak”. Więcej informacji na temat tego zagadnienia można znaleźć tutaj.

Złośliwe wykorzystanie sztucznej inteligencji wymusi potrzebę automatyzacji i predykcyjnej sztucznej inteligencji, która może wyprzedzić ewoluujące zagrożenia.

 

Cylance 1

Cylance 2