Sztuczna inteligencja: wesprzeć człowieka, a nie go zastąpić

Sztuczna inteligencja: wesprzeć człowieka, a nie go zastąpić
Fot. Pixabay

Aby sztuczna inteligencja (AI) lepiej wspierała człowieka w rozwiązywaniu problemów, trzeba zadbać o jej zrównoważony rozwój. Dlatego warto, by algorytmy AI były trenowane na sensownych zbiorach danych, były w stanie wytłumaczyć użytkownikowi swoją decyzję i nie były tak energochłonne jak teraz – mówili eksperci podczas dyskusji w Warszawie.

O wyzwaniach związanych z rozwojem sztucznej inteligencji rozmawiali w środę w Warszawie eksperci w ramach dyskusji “Przyjazna strona AI. Dlaczego sztuczna inteligencja powinna rozwijać się w sposób zrównoważony.” Spotkanie zorganizował ośrodek badawczo-rozwojowy w obszarze sztucznej inteligencji IDEAS NCBR.

Prof. Piotr Sankowski, prezes IDEAS NCBR zwracał uwagę, że kiedy buduje się jakiekolwiek rozwiązania z obszaru AI, należy zawsze brać pod uwagę konteksty społeczne, które temu towarzyszą. – Nie można (…) skupiać się wyłącznie na zwiększaniu przychodów, ponieważ może to doprowadzić do bardzo niepożądanych sytuacji, np. wzmacniania uprzedzeń i nierówności, zamiast ich zwalczania – mówił uczestnik dyskusji cytowany w komunikacie po konferencji.

Kolejna uczestniczka spotkania Katarzyna Szymielewicz, prawniczka i współzałożycielka Fundacji Panoptykon, zwracała szczególną uwagę na algorytmy AI, które służą do profilowania ludzi – np. prognozowania, które osoby mogą w przyszłości stwarzać potencjalne zagrożenie. Albo algorytmy, które sugerują, jak udzielić pomocy osobom bezrobotnym. Jeśli decyzja, którą pomaga podjąć algorytm, ma związek z polityką – np. przyznaniem określonej osobie pomocy lub nie – za jej podjęcie musi zawsze wziąć odpowiedzialność człowiek, a nie algorytm. Ekspertka podkreślała, że aby wykluczyć błędy w algorytmie, kompetentna grupa osób powinna kontrolować pracę na różnych etapach.

– Ważne jest to, by użytkownicy mieli wgląd w to, jaka ścieżka wnioskowania doprowadziła algorytm do konkretnego wyniku. To pozwoliłoby nie tylko zmniejszyć obawy ludzi dotyczące sztucznej inteligencji, ale także zminimalizować błędy i idące za nimi uprzedzenia. Dlatego nie mam wątpliwości, że konieczne jest powstawanie narzędzi z zakresu Explainable AI, które ‚tłumaczyłyby’ decyzje algorytmów i pozwalałyby usuwać błędy w nich zawarte – dodaje Piotr Sankowski, który prowadzi badania w tym zakresie.

Według dr Inez Okulskiej, kierowniczki Zakładu Inżynierii Lingwistycznej i Analizy Tekstu w NASK, nie da się obiektywnie przeprowadzić analizy danych, bo nawet w pracach nad sztuczną inteligencją to człowiek zadaje pytania i łączy kropki. Według niej „dogłębna analiza i zrozumienie danych używanych do uczenia modeli, wyjaśnianie decyzji, badanie możliwych przekrzywień (biases) i odporności proponowanych rozwiązań jest równie ważne, co kolejne procenty w rankingach rezultatów”.

– Rynek rozwiązań opartych na AI już pokazał, że nie ureguluje się sam. Błędy i skrzywienia w działaniu nienadzorowanych algorytmów, trenowanie modeli na niekompletnych zbiorach danych, często z naruszeniem zasad ochrony danych osobowych – to wszystko dobrze rozpoznane problemy. Żeby nie dopuścić do ich eskalacji, Unia Europejska pracuje właśnie nad kompleksową regulacją sektora AI. W miejsce rozmytych deklaracji etycznego podejścia do technologii, które tak chętnie serwują nam dziś firmy technologiczne, pojawią się konkretne obowiązki prawne, w tym obowiązek oceniania wpływu danego systemu na prawa człowieka, zanim zostanie on wprowadzony na rynek – wyjaśniła cytowana w komunikacie Katarzyna Szymielewicz, która aktywnie angażuje się w prace nad Aktem o sztucznej inteligencji.

Kolejnym aspektem związanym z rozwojem sztucznej inteligencji jest to, jak dużo algorytmy takie zużywają energii. Prof. Tomasz Trzciński, lider grupy badawczej w IDEAS NCBR, zwrócił uwagę, że wytrenowanie jednego modelu AI może przyczynić się do emisji dwutlenku węgla równej całemu cyklowi życia pięciu samochodów. – Tymczasem efektywność energetyczną można podwyższać już na poziomie budowania algorytmów. W tym celu możemy energooszczędnie uczyć i stosować modele machine learning. Szczególne, że stają się one coraz bardziej powszechne i wymagające coraz większej mocy obliczeniowej – skomentował. I dodał – W naszej grupie badawczej nie ograniczamy modeli uczenia maszynowego, ale próbujemy zwiększać ich efektywność. W tym celu wykorzystujemy informacje, obliczenia i zasoby, do których mamy już dostęp. Można nazwać to recyklingiem obliczeń. W projekcie skupiamy się na tworzeniu modeli uczących się być wydajnymi, a nie tylko zdolnymi do rozwiązania konkretnego zadania”.

Nauka w Polsce
Print Friendly, PDF & Email