Jak działa sztuczna inteligencja?
Sztuczna inteligencja rewolucjonizuje obszar bezpieczeństwa fizycznego: inteligentne, autonomiczne systemy zabezpieczeń, które zapobiegają potencjalnym incydentom. Nadchodzi kolejny etap ewolucji systemów gwarantujących szybsze, wydajniejsze i sprawniejsze działanie. Technologia bezpieczeństwa zasilona AI będzie działać predykcyjnie, głęboko zintegrowana z systemami obiektu.
Choć nadal obiekty są wyposażane w standardowe rozwiązania wspomagające bezpieczeństwo (niestety często wdrażane w silosach technologicznych bez połączenia z pozostałymi systemami), to już nowe produkty wyposażone w silniki sztucznej inteligencji (AI) oferują lepszą analizę danych, dzięki czemu mogą działać wydajniej i efektywniej wykorzystywać posiadane zasoby. Ewolucja techniki zapewniła uruchomienie automatycznych reakcji, które nie tylko przyspieszają operacje związane z bezpieczeństwem, ale także poprawiają wydajność operacyjną.
Kolejny etap związany z rozwiązaniami autonomicznymi wspomaganymi AI uwolnią personel od żmudnych, powtarzalnych czynności, realizując jednocześnie inne zadania. Mogą np. aktywować protokoły bezpieczeństwa i umożliwiać urządzeniom komunikowanie się ze sobą, co pozwala przechwycić więcej informacji, aby zapewnić utrzymanie bezpieczeństwa bez interwencji człowieka. Autonomia pozwoli personelowi skupić się na strategii oraz podjęciu właściwej decyzji.
Ale czy wszyscy jednakowo rozumiemy pojęcie sztucznej inteligencji? Firma Gartner pokusiła się o przybliżenie tematu.
Definicje sztucznej inteligencji
Definicji sztucznej inteligencji (AI) jest wiele. Gartner określa ją jako zastosowanie zaawansowanych technik analitycznych i logicznych, w tym uczenia maszynowego (ML) do interpretowania zdarzeń, wspierania i automatyzacji decyzji oraz podejmowania działań. Definicja ta jest zgodna z obecnym i przewidywanym stanem technologii i możliwości AI. Potwierdza, że wiąże się z analizą probabilistyczną (łączącą prawdopodobieństwo i logikę, aby nieokreśloności przypisać wartość).
Sztuczna inteligencja może wspierać, rozszerzać i automatyzować ludzkie działania na wiele sposobów, uczyć się i działać niezależnie, toteż jej definicje mogą być różne. Aby organizacja mogła wykorzystać jej możliwości, należy jednak sformułować i uzgodnić ogólnie przyjętą definicję określającą, co AI ma osiągnąć. Trzeba zostawić przestrzeń na różnicę zdań, ale upewnić się, że między biznesem, liderami IT (informatykami) oraz ds. danych i analityki nie ma zasadniczych rozbieżności w kwestii znaczenia AI dla organizacji, w przeciwnym razie nie będzie można opracować strategii, która przyniesie korzyści.
Dostawcy technologii AI prawdopodobnie również będą mieli własne definicje tego terminu. Należy poprosić o wyjaśnienie, czy ich oferta wychodzi naprzeciw naszym oczekiwaniom dotyczącym sposobu, w jaki AI będzie dostarczać pożądany efekt.
Co to jest uczenie maszynowe i uczenie głębokie?
Jak podaje Gartner, uczenie maszynowe (machine learning, ML) jest przełomową techniką, która sztucznej inteligencji umożliwia rozwiązywanie problemów. Wbrew powszechnym, błędnym wyobrażeniom (i błędnym potocznym określeniom) maszyny się nie uczą. One gromadzą dane, przetwarzają i obliczają co prawda w coraz bardziej skomplikowany sposób.
Uczenie maszynowe jest dyscypliną analityczną. Stosuje modele matematyczne do danych w celu wydobycia z nich wiedzy, rozpoznania prawidłowości i znalezienia wzorców, które człowiek prawdopodobnie by przeoczył. ML zaleca również działania, ale nie kieruje systemami, aby reagowały bez interwencji człowieka.
Mówiąc precyzyjniej, uczenie maszynowe tworzy algorytm lub formułę statystyczną (zwaną modelem), która przekształca serię punktów danych w pojedynczy wynik. Algorytmy ML „uczą się” poprzez „trening”, podczas którego identyfikują wzorce i korelacje między danymi oraz wykorzystują je do tworzenia nowych wniosków i przewidywań bez konieczności wyraźnego zaprogramowania ich do tego.
Głębokie uczenie (deep learning, DL), odmiana algorytmów uczenia maszynowego, wykorzystuje wiele (coraz głębszych) warstw sztucznych neutronów – algorytmów do rozwiązywania problemów poprzez wydobywanie wiedzy z danych pierwotnych i przetwarzanie ich na każdym poziomie. Głębokie uczenie przewyższa tradycyjne ML (lub techniki płytkiego uczenia) w pracy ze złożonymi i często wielowymiarowymi danymi, takimi jak obrazy, mowa i tekst. Mimo to sztuczna inteligencja oparta na regułach lub tradycyjne ML zapewniają skuteczne rozwiązanie wielu problemów związanych z AI.
W większości organizacji rozwiązania oparte na głębokim uczeniu nie stanowią jeszcze istotnej części mapy drogowej produktów (systemy ML oparte na regułach lub tradycyjne ML potrafią dziś skutecznie wspierać większość przypadków użycia AI), ale ich zastosowanie szybko rośnie wraz z postępem w przetwarzaniu danych i przełomowymi technikami obliczeniowymi.
Wykorzystanie ML, w tym głębokiego uczenia, do przewidywania umożliwia procesowi napędzanemu przez sztuczną inteligencję zautomatyzowanie wyboru najkorzystniejszego wyniku, co eliminuje potrzebę udziału człowieka w podejmowaniu decyzji.
Przyszłość sztucznej inteligencji i technologii AI
Dziedzina sztucznej inteligencji szybko się rozwija dzięki nowym technikom, dedykowanej infrastrukturze i zaawansowanemu sprzętowi. Firma Gartner prognozuje, że w ciągu najbliższych pięciu lat organizacje zaadaptują najnowocześniejsze techniki do inteligentniejszych i bardziej niezawodnych, odpowiedzialnych i zrównoważonych środowiskowo zastosowań AI.
Trajektoria rozwoju AI jest obecnie bardziej zbliżona do trajektorii poprzedzających ją technologii. Dla firm i rządów AI staje się bardziej:
- familiarna (oswojona): narzędzia, wiedza i umiejętności informatyczne sprzyjają teraz AI,
- skalowalna: AI jest tańsza, a sukces łatwiejszy do osiągnięcia niż kiedykolwiek wcześniej,
- użyteczna: liderzy IT i biznesowi częściej rozważają AI jako sposób na ulepszenie aplikacji.
W przyszłości organizacje będą nadal podążać tropem AI, by wzmocnić swoje procesy decyzyjne. Te, które szybko zaadaptują te metody, zwiększą swoją konkurencyjność, staną się bardziej elastyczne i będą lepiej reagować na zmiany w ekosystemie.
Wdrażanie strategii AI pozostaje wyzwaniem dla zespołów zajmujących się infrastrukturą i operacjami. Rozpoczęcie działalności w siedzibie firmy oznacza inwestowanie w infrastrukturę i architekturę, kadry i finansowanie, co może być trudne do przewidzenia i oszacowania. To sprawia, że opcja chmury staje się atrakcyjna, chociaż w miarę wzrostu zapotrzebowania na sztuczną inteligencję i wymagane inwestycje chmura może okazać się zbyt kosztowna (a zobowiązania wobec dostawców chmury bardziej problematyczne). Dlatego tak atrakcyjne jest pojawienie się strategii, które równoważą inwestycje w funkcje chmury z inwestycjami w infrastrukturę (tzw. strategie hybrydowe chmura/on-premises).
W zakresie planowania strategicznego w zakresie AI specjaliści Gartnera wskazali, że do 2025 r. 50% przedsiębiorstw będzie miało opracowane platformy wdrażania AI w porównaniu z ok. 10% w 2020 r., AI będzie główną kategorią wpływającą na decyzje dotyczące infrastruktury ze względu na rozwój rynku AI, co spowoduje dziesięciokrotny wzrost wymagań na moc obliczeniową, 10% rządów będzie wykorzystywać syntetyczną (całościową) populację z realistycznymi wzorcami zachowania do szkolenia AI, unikając jednocześnie obaw związanych z prywatnością i bezpieczeństwem.
Czy przedsiębiorstwa mogą ufać sztucznej inteligencji?
Większość organizacji biznesowych nie zna i nie rozumie wewnętrznych mechanizmów działania sztucznej inteligencji, co stwarza potencjalne obawy dotyczące uczciwości, bezpieczeństwa i prywatności. Nie może ona jednak się rozwijać, gdy firma nie ma zaufania do technik AI, dlatego organizacje potrzebują mechanizmów kontroli i równowagi, aby oceniać i reagować na zagrożenia i szkody oraz zapewniać integralność AI.
Gartner określa ramy zarządzania ryzykiem AI mianem MOST. Składają się one z następujących filarów:
- Model Operations – wspieranie niezawodności, przewidywalności i dokładności AI,
- Security – bezpieczeństwo (uniemożliwienie hakerom i złośliwym osobom wewnątrz firmy manipulowanie danymi wejściowymi, aplikacjami i wynikami AI),
- Trustworthiness – wiarygodność (wspieranie uczciwości, etyki, dobrobytu społecznego i „odpowiedzialności SI”).
Wraz z upowszechnianiem się AI w przedsiębiorstwie nieuchronnie pojawią się zagrożenia, które spowodują poważne ryzyko organizacyjne. Organizacje muszą proaktywnie je oceniać. W ten sposób mogą zwiększyć zaufanie interesariuszy do AI. Gartner przewiduje, że do 2025 r. regulacje prawne będą wymagały skupienia się na etyce, przejrzystości i prywatności AI, co będzie stymulować, a nie tłumić zaufanie, wzrost i lepsze funkcjonowanie AI na całym świecie.