Rok 2019 rozpoczął się na dobre, a my pisaliśmy już o kilku nowościach, takich jak rozpoznawanie chorób genetycznych na podstawie zdjęć twarzy przez AI, dekodowanie fal mózgowych, czy ogromnej kwocie, jaką przeznaczy Facebook na badania etyki sztucznej inteligencji. Aby bliżej przyjrzeć się temu, na jakich obszarach głównie planowany jest rozwój oraz na jakich aspektach powinni skupić się badacze, spytaliśmy kilku specjalistów z tego zakresu o ich prognozy AI w ciągu najbliższych miesięcy.
Skalowanie AI
Chyba nikt z nas nie ma wątpliwości, że kolejne miesiące przyniosą wiele zmian w dziedzinie sztucznej inteligencji. Nie sposób jednak zastanowić się nad uporządkowaniem tego, co udało się zrobić dotychczas. Filozofka, futurolożka i doktor nauk humanistycznych, która związana jest z Akademią Leona Koźmińskiego i pracuje obecnie w Center for Collective Intelligence na Massachusetts Institute of Technology w Bostonie, Aleksandra Przegalińska, przewiduje, że w 2019 roku czeka nas skalowanie tego, co zostało wypracowane przez ostatnie dwa lata.
"Jeśli pomyślimy o tym, jak wiele zostało zrobione w deep learningu, ilu odkryć dokonano, ile innowacji wprowadzono czy jakie postępy poczyniła firma Elona Muska Open AI z zakresie game AI, to uważam, że dla sztucznej inteligencji nastał moment, gdy ważna jest skala. To, aby stała się ona pewnego rodzaju usługą, którą zarówno małe, średnie, jak i duże przedsiębiorstwa, organizacje oraz administracja mogły zacząć stosować w swoim codziennym funkcjonowaniu. Moim zdaniem czas ostrożnych prac badawczo-rozwojowych, które bardzo dużo kosztują, powoli mija. Widzimy to, że AI powinno się stać usługą dostępną dla wszystkich tych, którzy mogliby skorzystać z analityki Big Data oferowanej przez uczenie maszynowe"
Etyka sztucznej inteligencji
Innym aspektem, który za niezwykle ważny uznało kilku ekspertów poproszonych o zabranie głosu na potrzeby artykułu jest etyką sztucznej inteligencji. Pisaliśmy o tym także w podsumowaniu roku 2018, gdyż już w ubiegłym roku podjęto szereg działań mających na celu zwracanie uwagi na etyczne aspekty tego rozwiązania. Jak przytacza dr Przegalińska, znana badaczka chińska Fei Fei Li stwierdziła, że AI potrzebuje więcej uczłowieczenia i głównym problem jest tzw. przechył algorytmiczny. Przypomina ona, iż widzieliśmy pod koniec ubiegłego roku, że tzw. algorithmic wired może być bardzo szkodliwy i eliminować różne grupy społeczne. Za przykład podaje ona Amazona, którego narzędzie rekrutacyjne nie wytypowało żadnej kobiety uznając, że nie będą one tak dobrymi pracownikami, jak mężczyźni. Tym samym powieliło ono nasze stereotypy, które są krzywdzące.
Jest to kwestia, która na pewno będzie w tym roku rozstrzygana, gdyż to, że algorytm dyskryminuje ludzi może stać się poważnym problemem nie tylko etycznym, ale i biznesowym. W tym roku będziemy zastanawiać się, jak to naprawić – zapewnia dr Przegalińska.