Sztuczna inteligencja: kompletny przewodnik
Opublikowany: 2015-05-04W ciągu ostatnich pięćdziesięciu lat dziedzina badań nad sztuczną inteligencją stworzyła ogromne możliwości, które nie są postrzegane jako sztuczna inteligencja przez ogół społeczeństwa. Większość naszych działań online obejmuje formy sztucznej inteligencji (wirtualni agenci, rozpoznawanie wzorców, reklama ukierunkowana). Jednak wszystko, co do tej pory zostało zrobione, to tylko ziarnko piasku w odniesieniu do kłopotów dla piaszczystej przyszłości. Aby pozycjonować się zgodnie z tymi postępami, musimy zdobyć wiedzę na temat procesu.
Przedsiębiorstwa biznesowe stają się coraz bardziej świadome, że sztuczna inteligencja może być (i w przyszłości będzie) decydującym czynnikiem sukcesu. Obecnie właściwości te są implementowane w algorytmach analizy danych, które mają zdolność właściwego przechowywania, przetwarzania i analizowania Big Data (kolejna rosnąca sfera zarządzania biznesem), ale wkrótce uwzględnią algorytmy optymalizacji produktów i złożone techniki angażowania klientów.

Shutterstock.com | Tatiana Szepeliewa
W tym artykule przedstawiamy kompletny przewodnik po sztucznej inteligencji w sekcjach 1) Początki sztucznej inteligencji; 2) Cele AI ; 3) Podejścia i narzędzia ; 4) Zagadnienia AI ; 5) Zastosowanie w przedsiębiorczości , oraz 6) Przykłady wdrożeń AI w biznesie .
POCHODZENIE SZTUCZNEJ INTELIGENCJI
Idea i tło filozoficzne
Podstawy idei związanych z tworzeniem sztucznej inteligencji sięgają automatów zbudowanych przez cywilizacje egipską i chińską, a także mitologii starożytnej Grecji. Przenoszenie ludzkich właściwości na przedmioty i abstrakcyjne idee jest jednym ze sposobów, w jaki ludzie rozumują o swoim istnieniu od momentu uzyskania świadomości.
Wraz z rozwojem logiki i pojawieniem się symbolicznego pola rozumowania filozofii, stworzenie maszyn, które mogłyby naśladować ludzką inteligencję, stało się możliwe do zrealizowania w praktyce. Rozumowanie symboliczne stwierdza, że symbole (liczby, wykresy, obliczenia, statystyki itp.) mogą być używane jako synonimiczne substytuty dłuższych wyrażeń w celu rozwiązania problemów. Pomysł został zaproponowany w XVI wieku przez Thomasa Hobbesa, uważanego za „Dziadka AI”.
Dalej, w miarę postępu inżynierii na przestrzeni wieków, te dwie dziedziny zaczęły się ze sobą korelować. Pierwszy komputer – Analytical Engine, został zaprojektowany w XIX wieku przez Charlesa Babbage'a (zbudowano go jednak dopiero w 1991 roku). Wraz z postępującym postępem technologii od początku XX wieku oraz rosnącą koniecznością lepszego zrozumienia procesów obliczeniowych powstały różne modele i dyskursy teoretyczne.
Test Turinga
Alan Turing opublikował fundamentalną pracę na ten temat w 1950 roku – artykuł Computing Machinery and Intelligence. W artykule zaproponował model maszyny Turinga, za pomocą którego omówił teoretyczne możliwości tego, co można obliczyć. Aby wydedukować, czy możliwości obliczeniowe sięgają sfer ludzkiej inteligencji, stworzył test Turinga. Celem testu było ustalenie, czy maszyna może przekonać podejrzanego śledczego, że rzeczywiście jest człowiekiem. Test wydawał się dość prosty – nie wymagał skomplikowanych zadań (np. tworzenia oryginalnej grafiki); aby przejść, komputer miał być w stanie prowadzić małą rozmowę z człowiekiem i wykazywać zrozumienie danego kontekstu. Choć brzmi to prosto z perspektywy człowieka, realizacja takich wyników okazała się niezwykle trudna i do tej pory nieosiągalna. Głównymi problemami były te związane z technologią sprzętową połowy XX wieku – kwestie magazynów kamuflowały przyszłe problemy związane z realizacją oprogramowania.
Naukowcy wciąż próbują stworzyć oprogramowanie, które zdałoby test Turinga i zaprezentowałoby je na corocznych zawodach Turinga. Nagroda Leobnera w wysokości 100 000 USD nadal czeka na pierwsze oprogramowanie, które okaże się zdolne do odczuwania.
AI – kierunek studiów
Opierając się na postępach filozoficznych, logicznych, matematycznych, cybernetycznych, neuronaukowych i informatycznych, w 1956 roku na konferencji w Dartmouth College narodził się kierunek sztucznej inteligencji. Eksperci John McCarthy i Marvin Minsky stali się wybitnymi nazwiskami w szeroko zakrojonych wysiłkach na rzecz stworzenia inteligentnych maszyn na następne pięćdziesiąt lat.
Oczywiście, aby stworzyć inteligencję, trzeba wiedzieć, czym jest inteligencja. Jednak abstrakcyjne definicje inteligencji jako właściwości istot ludzkich (i niektórych zwierząt), które przejawiają się w logice, rozumowaniu, uczeniu się przez doświadczenie, wykorzystaniu wiedzy, kreatywności i niezliczonej liczbie innych, nie mogą być po prostu przełożone na symbole i wytwarzać czujące. maszyneria.
Szachy komputerowe i systemy eksperckie
Naukowcy zastosowali różne podejścia i metody, aby zbudować sztuczną inteligencję. Jednym z podejść była ewolucja oprogramowania do gry w szachy. Ze względu na to, że znacznie łatwiej było osiągnąć wysoką wydajność dzięki technikom brute force – czyli komputer oblicza algorytmy rozwiązania na zasadzie minimalnego kosztu za maksymalne szkody możliwe dla określonej liczby przyszłych ruchów – oprogramowanie do gry w szachy nie skupiaj się zbytnio na budowaniu czujących, ale raczej na zaawansowanych technikach wyszukiwania i zrównoważonym sprzęcie dla dużych baz danych.
Z drugiej strony opracowano systemy eksperckie, aby zapewnić fachową pomoc w różnych branżach. Poprzez stworzenie sprawnej bazy wiedzy i włączenie oprogramowania do uczenia maszynowego – co umożliwia maszynom dokonywanie prognoz i udzielanie konsultacji dotyczących danych; a także oprogramowanie do interakcji (oparte na rozwoju języka naturalnego) – naukowcy poszerzyli właściwości swoich „inteligentnych maszyn”. Osiągnięcia te są obecnie wykorzystywane w systemach nawigacyjnych, medycynie oraz biznesie.
Zimy AI
Po początkowej ekscytacji w dziedzinie badań nad sztuczną inteligencją wkrótce stało się jasne, że solidne wyniki zajmą więcej czasu, niż przewidywano i ogłaszano. Po raportach ALPAC i Lighthill, które wskazywały na niezadowalający postęp w projektach AI (problemy z oprogramowaniem w języku naturalnym, powolne postępy), napływ inwestycji został przerwany – pierwsza Zima AI rozpoczęła się w 1974 roku i trwała do wczesnych lat 80., kiedy to rząd brytyjski wszczął Projekty AI jako odpowiedź na japońskie dążenia do programowania logicznego. Jednak w 1987 roku, w związku z załamaniem się rynku komputerów ogólnego przeznaczenia i spadkiem finansowania, pojawiła się druga Zima AI, która trwała pięć lat.
W okresach „zimowych” badania nad sztuczną inteligencją kontynuowano pod różnymi nazwami, które w przyszłości staną się podkategoriami tej dziedziny – programowanie ewolucyjne, uczenie maszynowe, rozpoznawanie mowy, eksploracja danych, robotyka przemysłowa, wyszukiwarki i wiele innych.
Gdzie jest teraz sztuczna inteligencja?
Dziedzina badań nad sztuczną inteligencją umożliwiła wiele postępów, które są dziś uważane za „powszechne” – określone i spersonalizowane wyniki wyszukiwania, inteligentne oprogramowanie asystenta osobistego – Siri, Tłumacz Google, systemy nawigacji pojazdów, różnorodne ulepszenia robotyki i niezliczone inne.
Niektóre godne uwagi osiągnięcia obejmują:
- IBM Deep Blue stał się pierwszym komputerem, który w 1997 roku wygrał partię szachów z mistrzem szachowym – Garrym Kasparowem.
- System odpowiedzi na pytania IBM Watson wygrał quiz Jeopardy przeciwko sprawnym przeciwnikom w 2011 roku.
- Eugene Goostman, chatbot, przekonał członka jury testu Turinga, że jest to 13-letni chłopiec z Ukrainy w 2014 roku. Jednak Eugene zdał absolutne minimum skazania z 33%. Taki wynik nie jest w istocie uważany za zdanie testu Turinga, ponieważ opiera się głównie na uwarunkowaniu zewnętrznym (dziecko z kraju nieanglojęzycznego może zostać wybaczone za braki w small talk, podczas gdy dorosły native speaker nie byli). Oczekuje się, że w 2015 roku twórcy Eugene'a będą bronić swojego zwycięstwa i udowodnić, że wynaleźli inteligentne oprogramowanie (czego prawdopodobnie nie zrobili).
Jak można zauważyć ze wszystkiego, co zostało powiedziane powyżej, jasne jest, że trudne problemy sztucznej inteligencji nie osiągnęły znacznego postępu w ciągu ostatnich pięćdziesięciu lat. W związku z tym eksperci przewidują co najmniej pięćdziesiąt lat prób i błędów, aby naśladować ludzką inteligencję. Jest to po prostu zbyt obszerny i złożony temat, aby można go było rozwiązać w krótkim czasie. Jednak postępy, które do tej pory poczyniono podczas questu, wpłynęły i ukształtowały świat, w którym żyjemy.
CELE SZTUCZNEJ INTELIGENCJI
„Ostatecznym” celem wysiłków związanych ze sztuczną inteligencją jest stworzenie inteligentnej maszyny zdolnej do rozumowania, planowania, rozwiązywania problemów, myślenia abstrakcyjnego, rozumienia złożonych pomysłów, szybkiego uczenia się i uczenia się na podstawie doświadczenia (co jest uzgodnioną definicją ludzkiej inteligencji). W praktyce ta sztucznie naśladowana inteligencja ma odzwierciedlać szeroką i głęboką zdolność rozumienia otoczenia, aby wymyślić, co robić w nieskończonych możliwych sytuacjach. Aby odpowiednio pozycjonować się w środowisku, sztuczna inteligencja musi być społecznie inteligentna (co oznacza, że musi być w stanie postrzegać i odpowiednio reagować na szerokie spektrum abstrakcyjnych cech i właściwości zrozumiałego wszechświata – na przykład emocji). Aby optymalnie radzić sobie z problemami, musi umieć zaimplementować kreatywność w swoim funkcjonowaniu. Wszystkie wymienione właściwości przypisuje się długoterminowemu celowi badań nad sztuczną inteligencją – ogólnej inteligencji.
Jednak, aby osiągnąć taki cel, naukowcy muszą skupić się na szerokiej gamie złożonych koncepcji, które są jego budulcem, zarówno indywidualnie, jak i w korelacji. Konstruktorzy przyszłej inteligentnej maszyny muszą zaimplementować w swojej pracy empiryczne badania istniejących inteligentnych systemów (głównie istot ludzkich) oraz wyniki teoretycznych eksploracji i analizy możliwych systemów inteligencji (oraz ich mechanizmów i reprezentacji). Czynniki te są niezbędne do rozwiązywania problemów związanych z istniejącymi inteligentnymi systemami, a także projektowania nowych inteligentnych lub półinteligentnych maszyn. Zasadniczo oznacza to, że należy uzyskać pełny obraz złożoności zadania, ponieważ ograniczanie wysiłków tylko do jednej dziedziny (na przykład inżynierii) nie przyniesie zadowalających rezultatów. Budowa samolotów byłaby niemożliwa bez badania ptaków.
Dedukcja, wnioskowanie, rozwiązywanie problemów
W początkach badań nad sztuczną inteligencją proces rozumowania był indukowany poprzez naśladowanie krok po kroku procesów ludzkich w rozwiązywaniu zagadek lub logicznych dedukcji. Jednak to podejście w dużym stopniu zależało od zasobów obliczeniowych i pamięci komputera, która w tamtych czasach była raczej ograniczona. Kwestie te wskazywały na konieczność naśladowania u ludzi natychmiastowych procesów osądzania, a nie celowego rozumowania. Sąd natychmiastowy może być postrzegany jako intuicyjna, podświadoma wiedza, która rządzi kierunkiem świadomych działań.
Sztuczna inteligencja podejmuje próby osiągnięcia celu, jakim jest natychmiastowa ocena, poprzez połączenie:
- Agenci wcieleni (autonomiczne jednostki, które mogą wchodzić w interakcje ze środowiskiem i są przedstawiane jako trójwymiarowe ciało wirtualnej symulacji/prawdziwego robota);
- Umiejętności sensomotoryczne (połączenie postrzegania otoczenia przez czujniki i reagowania zdolnościami motorycznymi – np. robot postrzega zbliżającą się osobę i podaje rękę na powitanie – robot reaguje potrząsaniem dłonią z osobą);
- Sieci neuronowe (symulacja struktur i procesów w systemach neuronowych, w szczególności ludzki mózg: obliczanie wartości z danych wejściowych; uczenie maszynowe; rozpoznawanie wzorców; natura adaptacyjna);
- Podejścia statystyczne (matematyczne podejścia do rozwiązywania konkretnych problemów).
Reprezentacja wiedzy
Aby naśladować człowieka, sztuczna inteligencja musi zawierać ogromne ilości wiedzy na temat obiektów, ich właściwości, kategorii i relacji między sobą. Ponadto musi wdrażać sytuacje i stany, przyczyny, skutki i abstrahować idee. Pole AI wykorzystuje ontologiczne podejście do reprezentacji wiedzy – czyli wiedza jest postulowana w zestawach pojęć, których związek jest zdefiniowany w obrębie domeny.
Zagadnienia
- Niemożność stwierdzenia prawda/fałsz – wszystko ma wyjątki;
- Szerokość ludzkiej wiedzy sprawia, że stworzenie kompleksowej ontologii jest prawie niemożliwe;
- Należy uwzględnić podświadome i podsymboliczne formy wiedzy.
Rozwiązania
- Statystyczna sztuczna inteligencja – matematyczne rozwiązanie niektórych problemów;
- Usytuowana sztuczna inteligencja – systemy jako autonomiczne byty poprzez interakcję z otoczeniem rozwijają elementarne zachowania;
- Inteligencja Obliczeniowa – komputer, który zrozumiał wystarczającą ilość pojęć, dzięki czemu jest w stanie sam dostarczyć dalszą ontologię (np. przez Internet).
Zautomatyzowane planowanie
AI musi być w stanie konstruować złożone i zoptymalizowane rozwiązania w wielowymiarowej przestrzeni i realizować te strategie/sekwencje działań. Innymi słowy, inteligentni agenci muszą być w stanie wizualizować potencjalną przyszłość (analiza predykcyjna), wyznaczać cele działania (podejmowanie decyzji) i działać w sposób, który zmaksymalizuje wydajność (wartość) procesu.
Cele te mają być obsługiwane zarówno w trybie offline (dla znanego środowiska), jak i online (dla nieoczekiwanych środowisk). Naukowcy wciąż mają do czynienia z kwestiami nieprzewidywalnych scenariuszy – kiedy oczekuje się, że maszyna będzie inteligentnie reagować.
Nauczanie maszynowe
Uczenie maszynowe to budowa i badanie algorytmów, które pozwalają systemom AI na przewidywanie i podejmowanie decyzji na podstawie danych wejściowych i wiedzy zdobytej za ich pośrednictwem.
Może koncentrować się na:
- nienadzorowane rozpoznawanie wzorców w strumieniach danych wejściowych (na przykład definiowanie poczty spamowej z poczty niebędącej spamem w systemach poczty elektronicznej);
- nadzorowana (zaprogramowana) klasyfikacja i tworzenie relacji w danych wejściowych (np. podział poczty spamowej i niespamowej na różne kategorie w systemie).
Uczenie maszynowe jest wykorzystywane w różnych sferach technologii informatycznych, takich jak filtrowanie spamu (wymienione jako przykład powyżej), optyczne rozpoznawanie znaków, personalizacja wyszukiwarek, wizja komputerowa i eksploracja danych (analiza predykcyjna).
Dalsze ulepszanie algorytmów uczenia maszynowego powinno przyczynić się do ogólnej inteligencji obliczeniowej maszyn.
Przetwarzanie języka naturalnego
Przetwarzanie i generowanie języka naturalnego to jedno z głównych zagadnień, którymi zajmuje się dziedzina sztucznej inteligencji. Nic dziwnego, że test Turinga kręci się wokół zdolności maszyn do prowadzenia (przynajmniej pozornie) sumiennej konwersacji – maszyna, która będzie w stanie zrozumieć wypowiedziane lub pisane słowa w ich kontekście i będzie w stanie odpowiednio na nie odpowiedzieć, to coś, co można scharakteryzować jako inteligentny byt (ponieważ obejmuje abstrakcyjne właściwości – inteligencję społeczną, wiedzę, percepcję, rozwiązywanie problemów itp.).

Postrzeganie maszyny
Percepcja maszynowa reprezentuje zdolność interpretacji danych wejściowych, która przypomina procesy ludzkiej percepcji za pomocą zmysłów. Ważnymi kwestiami, które starają się rozwiązać, są kwestie kompleksowej percepcji, transmisji do inteligentnego rdzenia bytu i systemów odpowiedzi (czyli percepcja maszyny napotyka trudności zarówno w zakresie funkcji inżynierskich, jak i obliczeniowych).
- Wizja – zbieranie informacji na podstawie obrazu wielowymiarowego świata zewnętrznego i przekształcanie ich w algorytmy/rozwiązania dla zadanych problemów (obecnie maszyny mogą ćwiczyć rozpoznawanie twarzy i ocenę estetyczną, ale przed nami długa droga rozwoju);
- Słuch – umiejętność przetwarzania danych dźwiękowych, takich jak muzyka czy mowa (obecnie: rozpoznawanie głosu, tłumacze głosu);
- Dotyk – umiejętność przetwarzania właściwości powierzchni i zręczności w celu efektywnej i inteligentnej interakcji z otoczeniem.
Robotyka
Cele w robotyce łączą inżynierię z badaniami nad sztuczną inteligencją i obracają się wokół pytań o:
- manipulacja obiektami;
- nawigacja;
- Lokalizacja;
- mapowanie;
- planowanie ruchu.
PODEJŚCIA I NARZĘDZIA AI
Podejścia
Od pojawienia się badań nad sztuczną inteligencją w latach 50. podejmowano liczne podejścia poprzez wdrażanie wiedzy w różnych branżach i środowiskach akademickich. Podejścia te ewoluowały w odpowiedzi na braki, jakie każde z nich wykazywało w realizacji celu – inteligencji ogólnej. Kiedy badania nad sztuczną inteligencją traciły fundusze podczas zimy AI, dezintegracja podejść była jedynym sposobem na pozyskanie inwestycji na ciągłe badania. Z dzisiejszego punktu widzenia można wywnioskować, że wszystkie te podejścia są niezbędne dla ogromnej złożoności sztucznej inteligencji i że wszystkie z nich w ogromnym stopniu przyczyniły się do tego procesu (niezależnie od tego, jak powolny lub pozbawiony ekscytujących postępów może być sam proces). .
Łączność
Łącząc techniki i wiedzę z zakresu neurologii, technologii informacyjnej i cybernetyki, naukowcy osiągnęli w latach pięćdziesiątych symulację podstawowej inteligencji. Podejście to zostało porzucone w następnej dekadzie, by ponownie pojawić się w latach 80. XX wieku.
Osiągnięcia
- przetwarzanie sensoryczne;
- zachowanie sieci neuronowych;
- wiedza na temat systemów regulacyjnych.
Symbolizm
Podejście to stwierdza, że ludzką inteligencję można symulować wyłącznie poprzez manipulację symbolami. Jest również nazywany „staromodną dobrą sztuczną inteligencją” – GOFAI i odniósł sukces w symulacji wysokiej inteligencji w latach 60. – ograniczonej do ograniczonych programów demonstracyjnych.
Osiągnięcia
- systemy eksperckie
Symulacja poznawcza
Podejście symulacyjne poznawcze ucieleśnia się w testach psychologicznych, które przeprowadzono w celu zdobycia wiedzy na temat umiejętności rozwiązywania problemów człowieka. Wyniki miały zostać sformalizowane, aby opracować programy symulujące te właściwości ludzkiej inteligencji.
Osiągnięcia
- podstawy badań nad sztuczną inteligencją – uczenie maszynowe, przetwarzanie języka naturalnego itp.
Logika
Przedstawiciele podejścia logicznego uważali, że inteligencja ludzka w swej istocie wywodzi się z abstrakcyjnego rozumowania i rozwiązywania problemów, a zatem może być traktowana technikami logiki.
Osiągnięcia
- Reprezentacja wiedzy;
- zautomatyzowane planowanie;
- nauczanie maszynowe;
- programowanie logiczne.
Anty-logika
Przeciwnicy podejścia logicznego stwierdzili, że żadna ogólna zasada nie jest w stanie uchwycić złożoności inteligentnego zachowania.
Osiągnięcia
- zwrócił uwagę na brak efektywności podejścia logicznego w sprawach widzenia maszynowego i przetwarzania języka naturalnego
Wiedza
Podejście oparte na wiedzy zaczęło być szeroko wdrażane w badaniach nad sztuczną inteligencją od czasu pojawienia się systemów eksperckich i zwiększenia pojemności pamięciowych systemów operacyjnych.
Osiągnięcia
- implementacja do systemów eksperckich;
- jeden z kluczowych elementów inteligencji ogólnej.
Abstrakcyjny
Abstrakcyjne podejście wyłoniło się z konieczności zajęcia się subsymbolicznymi i intuicyjnymi widmami ludzkiej inteligencji w celu zapewnienia optymalnych rozwiązań problemów sztucznej inteligencji.
Osiągnięcia
- percepcja komputerowa;
- robotyka;
- nauczanie maszynowe;
- rozpoznawanie wzorców.
Położony
Usytuowane lub nowatorskie podejście do sztucznej inteligencji koncentruje się na podstawowych problemach inżynieryjnych i odrzuca wyłączność podejścia symbolicznego. Celem jest skonstruowanie realistycznej maszyny, która może istnieć w rzeczywistym środowisku.
Osiągnięcia
- zdolności motoryczne;
- umiejętności sensoryczne;
- percepcja komputerowa.
Statystyczny
Podejście statystyczne wykorzystuje mierzalne i weryfikowalne narzędzia matematyczne i łączy je z ekonomią w celu rozwiązania określonych problemów. Podejście to jest krytykowane w kwestii lekceważenia celu inteligencji ogólnej.
Osiągnięcia
- skuteczne rozwiązywanie konkretnych problemów
Narzędzia
Obszar badań nad sztuczną inteligencją napotkał nieskończone problemy w dążeniu do realizacji. Wdrożyła jednak różnorodne metody, za pomocą których można skutecznie rozwiązywać problemy.
Metoda wyszukiwania i optymalizacji
Poszukiwanie wielu możliwych rozwiązań, eliminowanie tych, które prawdopodobnie nie prowadzą do konkretnego (lub ogólnego) celu i wybór optymalnej ścieżki może być skutecznym sposobem rozwiązywania problemów. Algorytmy rozumowania, planowania i robotyki tworzone są przy pomocy technik wyszukiwania opartych na optymalizacji.
Matematyczną teorię optymalizacji tworzy się poprzez rozpoczęcie poszukiwania rozwiązania od inteligentnego zgadywania i dążenie do jego udoskonalenia (nazywanego również „wspinaniem się na wzgórze”: wybieraniem losowego punktu w krajobrazie i posuwaniem się w losowych ruchach w kierunku szczytu wzgórza).
Obliczenia ewolucyjne są zgodne z zasadą „przetrwania najsilniejszych” – postuluje się serię domysłów, poprzez udoskonalenie niektórych z nich spada, a tym samym pojawia się optymalne rozwiązanie.
Logika jako metoda rozwiązania
Logika służy do rozwiązywania problemów dotyczących automatycznego planowania i uczenia maszynowego, a także programowania logicznego. Służy do określania trafności poprzez atrybucję prawda/fałsz, wyrażania faktów dotyczących obiektów, ich właściwości i relacji, co jest istotne dla ontologii w reprezentacji wiedzy.
Inne metody
- Algorytmy prawdopodobieństwa do filtrowania i analizy predykcyjnej strumieni danych;
- Klasyfikatory i statystyczne metody uczenia się;
- Sztuczne sieci neuronowe;
- Języki programowania (różnią się w zależności od konkretnych potrzeb podkategorii AI).
KWESTIE SZTUCZNEJ INTELIGENCJI
Większość badaczy zajmujących się sztuczną inteligencją twierdzi, że ogólna inteligencja w maszynach zostanie osiągnięta w ciągu najbliższych pięćdziesięciu lat. Chociaż nie możemy potwierdzić takich stwierdzeń, wydaje się prawdopodobne, że nastąpią postępy i całkowicie zmienią świat. W konsekwencji pojawią się różne problemy.
Przede wszystkim systemy AI mają możliwości przetwarzania danych i analizy predykcyjnej, które znacznie przewyższają możliwości ludzi. Aby osiągnąć optymalną wydajność, są one w pewnym stopniu autonomiczne, rządzone przez starannie dobrany zestaw reguł, aby osiągnąć swego rodzaju cel. Jednak ze względu na swoją autonomię mogą działać w niezrównoważeniu względem swoich użytkowników – gdyby potencjalny problem nie został rozwiązany w programowaniu, system podjąłby się tego – jeśli służy celowi (a ludzie nie są w stanie przewidzieć wszystkich możliwych sytuacji i odpowiednie dla nich algorytmy). Problem należy rozwiązać, zapewniając jasne kryteria bezpieczeństwa, aby zminimalizować szkody w przypadku wystąpienia błędu. Co więcej, właściwe przypisanie odpowiedzialności to kwestia, którą należy się zająć w przypadku przedsięwzięć związanych ze sztuczną inteligencją.
Dalej, w miarę pojawiania się inteligencji ogólnej, ludzie muszą zdefiniować systemy moralne, według których będą konstruować systemy AI, ale także zasady moralne, według których będą się pozycjonować w stosunku do systemów AI. Zagadnienia etyczne w sztucznej inteligencji są niemożliwie złożone – jak określić, czy system jest zaprogramowany, aby zachowywać się i twierdzić, że czujący czy czujący?
Dodatkowo, kto będzie odpowiedzialny za podejmowanie decyzji dotyczących ogólnej sztucznej inteligencji? Podczas gdy wszyscy jesteśmy zapoznani z pozytywnymi i zaawansowanymi możliwościami, jakie przyniesie technologia AI – wyleczenie chorób, podróże kosmiczne, redukcja pracy itp., wydaje się, że zapominamy, że ludzie są zdolni do masowych zniszczeń w celu zdobycia władzy i pieniędzy. Oczywiście trzeba będzie wprowadzić pewne regulacje dotyczące korzystania z systemów AI.
ZASTOSOWANIE AI W PRZEDSIĘBIORCZOŚCI
Big Data i specjalistyczna analityka
W ciągu ostatnich kilku lat wykładniczy wzrost możliwości technologicznych (przede wszystkim przechowywania i przetwarzania danych), napływ danych ogromnie wzrósł. Obecnie firmy mogą gromadzić i przetwarzać Big Data w ustrukturyzowanych i nieustrukturyzowanych formach (zdjęcia, filmy) i analizować je w celu uzyskania cennych informacji dotyczących strategii biznesowej. Jednym z problemów zarządzania Big Data jest brak ekspertów, którzy mogliby to nadać sensu i zastosować w praktyce. W celu uproszczenia procesu zaprezentowano różne rozwiązania programowe, takie jak systemy eksperckie i analiza predykcyjna. Oczywiście są to produkty badań nad sztuczną inteligencją.
Jednak wraz z ewolucją algorytmów, ich wpływ na zarządzanie danymi będzie się zmieniał. Uczenie maszynowe to oparty na danych algorytm predykcyjny i decyzyjny, który w połączeniu z przetwarzaniem języka naturalnego może przedstawiać użyteczne (i cenne) informacje i rozwiązania dotyczące strategii biznesowych (reklama, relacje z klientami, coaching pracowników) z ogólnym celem zwiększenia produktywność i zaangażowanie klientów (satysfakcja), konkurencyjność na rynku i wzrost.
Optymalizacja produktów i usług
Algorytmy sztucznej inteligencji zostaną zaimplementowane nie tylko w sferze zarządzania biznesem, ale także w efektywności i atrakcyjności produktu. Na przykład kosiarki do trawy będą mogły kosić trawniki bez udziału człowieka. Ponadto będą mogli wykonywać specjalistyczne i spersonalizowane zadania konstruktywne, takie jak nie wyciąganie kwiatów. Wszystko to przyczyni się do zadowolenia klienta, ponieważ reprezentuje ciągłe wykładnicze zmniejszanie wymagań klienta w zakresie czasu i wysiłku w celu uzyskania maksymalnej wydajności i wartości.
PRZYKŁADY WDROŻENIA AI W BIZNESIE
Oprócz znacznych wysiłków IBM w dziedzinie sztucznej inteligencji od samego początku, duże firmy, takie jak Google i Facebook, musiały zadbać również o możliwości AI ze względu na ogromne ilości danych oraz złożone procesy zarządzania i definiowania strategii. Tutaj przyjrzymy się tym trzem firmom i ich uwikłaniu w sztuczną inteligencję.
IBM
Oprócz znaczącego sukcesu, jaki IBM odniósł publicznie dzięki swoim wysiłkom w zakresie technologii sztucznej inteligencji, takich jak algorytm gry w szachy Deep Blue i złożony system Watson, rzeczywiste korzyści tkwią w właściwościach opanowanych przez ich technologie i ich implementacji w biznesie. Algorytm Deep Blue zdołał przetworzyć ogromną ilość analiz predykcyjnych opartych na maksymalizacji wydajności zgodnie z zasadami szachów i pokazał, że przy jasnym formułowaniu celów nie ma potrzeby (bo byłoby to niemożliwe) ręcznego pokrywania możliwych rozwiązań – komputer zrobił to autonomicznie i, ograniczony do celu, dla którego został zaprogramowany, zoptymalizowany w taki sposób, że nawet szachowy mistrz nie mógł obejść tego procesu.
System Watson został opracowany jako algorytm pytań i odpowiedzi w czasie rzeczywistym, który potrafił dostrzec i przetworzyć język naturalny oraz uzasadnić poprawne odpowiedzi i wygenerować je w języku naturalnym – wygrał quiz Jeopardy działając offline. Została stworzona w oparciu o uczenie maszynowe, ponieważ byłoby to czasochłonne i być może nieefektywne podejście do ręcznego wdrażania do niego ontologii ogromnej wiedzy.
Te postępy są niezwykle istotne dla strategii biznesowych, ponieważ optymalizują szerokie przetwarzanie odpowiednich treści i umożliwiają konstruktywną komunikację w celu prezentowania spostrzeżeń i podejmowania decyzji w oparciu o te procesy analityczne.
Obecnie IBM koncentruje się na wdrażaniu swoich algorytmów w środowisku chmurowym oraz tworzeniu baz danych dla służby zdrowia, biznesu i edukacji.
Google wykorzystuje funkcje sztucznej inteligencji do personalizacji i specyfikacji swoich wyszukiwarek, opracował Tłumacz Google, który jest wystarczającym narzędziem do przetwarzania i generowania języka naturalnego (poza brakiem kontekstu i znaczeń pod-symbolicznych), a także zaimplementował moduł neuronowy strategii sieciowej w zarządzaniu ogromnymi bazami danych. Te strategie neuronowe mają na celu rozpoznawanie wzorców i niezwykle szybkie podejmowanie decyzji. Uwzględniono również algorytmy uczenia maszynowego, co oznacza, że systemy uczą się poprzez doświadczenie i jako takie działają bardziej efektywnie.
Profile na Facebooku to tygiel dla uporządkowanych i nieustrukturyzowanych danych: listy znajomych, polubione strony, dołączane do grup. W celu optymalizacji doświadczeń klientów, Facebook wdraża sztuczną inteligencję, która rozpoznaje wzorce zachowań poszczególnych użytkowników (w domenie Facebooka, a także ogólnie w Internecie) oraz oferty zgodnie z określonymi skłonnościami i zainteresowaniami. Ich wysiłki zmierzają w kierunku stworzenia inteligentnego agenta, który będzie w stanie wchodzić w interakcje z użytkownikami i błyskawicznie dostarczać cennych informacji.
Biorąc pod uwagę teorię wykładniczego wzrostu technologii i wiedzy Moore'a, możemy przewidzieć, że przedstawienia przyszłości w science fiction są w rzeczywistości tuż za rogiem, zwłaszcza jeśli weźmiemy pod uwagę złożoność celów. Chociaż istnieje wiele kwestii związanych z realizacją AI i etycznych zagadek dotyczących różnych widm AI, postęp ma miejsce i przyniesie ze sobą wiele pozytywnych cech. W biznesie umożliwi strategie opracowane z myślą o użytkownikach indywidualnych – zwiększając ich satysfakcję i generowanie zysków dla przedsiębiorstwa. Będzie to miało jeszcze bardziej dalekosiężne konsekwencje w medycynie, zrównoważonych gospodarkach, ograniczaniu ubóstwa i edukacji. Miejmy tylko nadzieję, że postęp zawsze będzie służył swoim altruistycznym celom.
