Aby sztuczna inteligencja (AI) lepiej wspierała człowieka w rozwiązywaniu problemów, trzeba zadbać o jej zrównoważony rozwój. Dlatego warto, by algorytmy AI były trenowane na sensownych zbiorach danych, były w stanie wytłumaczyć użytkownikowi swoją decyzję i nie były tak energochłonne jak teraz – mówili eksperci podczas dyskusji w Warszawie.
O wyzwaniach związanych z rozwojem sztucznej inteligencji rozmawiali w środę w Warszawie eksperci w ramach dyskusji “Przyjazna strona AI. Dlaczego sztuczna inteligencja powinna rozwijać się w sposób zrównoważony.” Spotkanie zorganizował ośrodek badawczo-rozwojowy w obszarze sztucznej inteligencji IDEAS NCBR.
Prof. Piotr Sankowski, prezes IDEAS NCBR zwracał uwagę, że kiedy buduje się jakiekolwiek rozwiązania z obszaru AI, należy zawsze brać pod uwagę konteksty społeczne, które temu towarzyszą. „Nie można (…) skupiać się wyłącznie na zwiększaniu przychodów, ponieważ może to doprowadzić do bardzo niepożądanych sytuacji, np. wzmacniania uprzedzeń i nierówności, zamiast ich zwalczania” – mówił uczestnik dyskusji cytowany w komunikacie po konferencji.
Kolejna uczestniczka spotkania Katarzyna Szymielewicz, prawniczka i współzałożycielka Fundacji Panoptykon, zwracała szczególną uwagę na algorytmy AI, które służą do profilowania ludzi – np. prognozowania, które osoby mogą w przyszłości stwarzać potencjalne zagrożenie. Albo algorytmy, które sugerują, jak udzielić pomocy osobom bezrobotnym. Jeśli decyzja, którą pomaga podjąć algorytm, ma związek z polityką – np. przyznaniem określonej osobie pomocy lub nie – za jej podjęcie musi zawsze wziąć odpowiedzialność człowiek, a nie algorytm. Ekspertka podkreślała, że aby wykluczyć błędy algorytmie, kompetentna grupa osób powinna kontrolować pracę na różnych etapach.
„Ważne jest to, by użytkownicy mieli wgląd w to, jaka ścieżka wnioskowania doprowadziła algorytm do konkretnego wyniku. To pozwoliłoby nie tylko zmniejszyć obawy ludzi dotyczące sztucznej inteligencji, ale także zminimalizować błędy i idące za nimi uprzedzenia. Dlatego nie mam wątpliwości, że konieczne jest powstawanie narzędzi z zakresu Explainable AI, które 'tłumaczyłyby’ decyzje algorytmów i pozwalałyby usuwać błędy w nich zawarte” – dodaje Piotr Sankowski, który prowadzi badania w tym zakresie.
Według dr Inez Okulskiej, kierowniczki Zakładu Inżynierii Lingwistycznej i Analizy Tekstu w NASK, nie da się obiektywnie przeprowadzić analizy danych, bo nawet w pracach nad sztuczną inteligencją to człowiek zadaje pytania i łączy kropki. Według niej „dogłębna analiza i zrozumienie danych używanych do uczenia modeli, wyjaśnianie decyzji, badanie możliwych przekrzywień (biases) i odporności proponowanych rozwiązań jest równie ważne, co kolejne procenty w rankingach rezultatów”.
„Rynek rozwiązań opartych na AI już pokazał, że nie ureguluje się sam. Błędy i skrzywienia w działaniu nienadzorowanych algorytmów, trenowanie modeli na niekompletnych zbiorach danych, często z naruszeniem zasad ochrony danych osobowych – to wszystko dobrze rozpoznane problemy. Żeby nie dopuścić do ich eskalacji, Unia Europejska pracuje właśnie nad kompleksową regulacją sektora AI. W miejsce rozmytych deklaracji etycznego podejścia do technologii, które tak chętnie serwują nam dziś firmy technologiczne, pojawią się konkretne obowiązki prawne, w tym obowiązek oceniania wpływu danego systemu na prawa człowieka, zanim zostanie on wprowadzony na rynek” – wyjaśniła cytowana w komunikacie Katarzyna Szymielewicz, która aktywnie angażuje się w prace nad Aktem o sztucznej inteligencji.
Kolejnym aspektem związanym z rozwojem sztucznej inteligencji jest to, jak dużo algorytmy takie zużywają energii. Prof. Tomasz Trzciński, lider grupy badawczej w IDEAS NCBR, zwrócił uwagę, że wytrenowanie jednego modelu AI może przyczynić się do emisji dwutlenku węgla równej całemu cyklowi życia pięciu samochodów. „Tymczasem efektywność energetyczną można podwyższać już na poziomie budowania algorytmów. W tym celu możemy energooszczędnie uczyć i stosować modele machine learning. Szczególne, że stają się one coraz bardziej powszechne i wymagające coraz większej mocy obliczeniowej” – skomentował. I dodał: „W naszej grupie badawczej nie ograniczamy modeli uczenia maszynowego, ale próbujemy zwiększać ich efektywność. W tym celu wykorzystujemy informacje, obliczenia i zasoby, do których mamy już dostęp. Można nazwać to recyklingiem obliczeń. W projekcie skupiamy się na tworzeniu modeli uczących się być wydajnymi, a nie tylko zdolnymi do rozwiązania konkretnego zadania”.
Źródło: Serwis Nauka w Polsce – www.naukawpolsce.pap.pl