rozwiń filtry »

Wyszukiwanie publikacji

Aktualności

luty
19

Potrzebujemy przepisów regulujących prace nad sztuczną inteligencją

19.02.2019 09:00, dodał: Arfałek
Ocena:

Rozwój technologii sztucznej inteligencji przynosi tyle samo korzyści, co zagrożeń. Konieczne jest stworzenie nowego prawa, które nadąży za rewolucją cyfrową.

Na rozwój sztucznej inteligencji Europa będzie przeznaczać 20 mld euro rocznie. Wszystko po to, by dogonić potentatów w tym obszarze, czyli Stany Zjednoczone i Chiny. SI w przyszłości może stanowić o przewadze gospodarczej poszczególnych krajów, zwłaszcza w kontekście rewolucji 4.0. Za technologią nie nadąża jednak prawo. Brakuje opracowanych zasad etycznych korzystania ze sztucznej inteligencji oraz odpowiedzialności za jej działanie – ocenia dr Agnieszka Besiekierska z Kancelarii Noerr.

– Wyzwania prawne związane z przemysłem 4.0 są wszędzie właściwie takie same i w Polsce nie różnią się one od innych krajów. Są to nowe tematy, na które prawo nie znajduje odpowiedzi. Można powiedzieć, że prawo nie nadąża za technologią. Bardzo dużo inicjatyw w tym zakresie pojawia się na poziomie UE i jest realizowanych w ramach jednolitego rynku cyfrowego– mówi agencji informacyjnej Newseria Biznes dr Agnieszka Besiekierska, adwokat, szefowa Praktyki Digitalizacji Biznesu w Kancelarii Noerr.

Deloitte wskazuje, że przemysł 4.0 należy do sześciu megatrendów, które będą kształtowały globalną gospodarkę. Blisko połowa firm już zaczęła wdrażać automatyzację procesów przy wykorzystaniu robotów Zmiany w prawie nie nadążają za cyfrową rewolucją, choć pierwsze przepisy weszły już w życie, przede wszystkim RODO czy ustawa o Krajowym Systemie Cyberbezpieczeństwa.

– Zdecydowano się na przygotowanie przepisów w zakresie najbardziej istotnych obszarów związanych z nowymi technologiami – zaznacza dr Agnieszka Besiekierska. – Istotną kwestią są dane osobowe, nieosobowe i przepływ tych danych. To bardzo istotne w związku z internetem rzeczy, analityką big data i oczywiście sztuczną inteligencją.

RODO wprowadziło jednolity standard dla wszystkich podmiotów przetwarzających dane osobowe w związku z działalnością w UE. Ustawa o Krajowym Systemie Cyberbezpieczeństwa obejmuje zasięgiem operatorów usług kluczowych, którzy muszą zapewnić zgodność swojego działania nie tylko z przepisami w zakresie cyberbezpieczeństwa, lecz także z RODO i przepisami krajowymi w obszarze danych osobowych.

Brakuje jednak rozwiązań, które dotyczyłyby szerokiego wykorzystywania sztucznej inteligencji. Tymczasem, jak wynika z badania SAS, Accenture Applied Intelligence, Intel i Forbes Insights, już ponad 70 proc. organizacji na świecie prowadzi projekty związane z SI.

Rezolucja Parlamentu Europejskiego i komunikat Komisji Europejskiej „Sztuczna inteligencja dla Europy” kładą bardzo duży nacisk na rozwój sztucznej inteligencji w Europie. Podkreśla się, że Europa nie może zostać w tyle za Stanami Zjednoczonymi i Chinami, w związku z tym uruchamia się dodatkowe środki finansowe, mające służyć rozwojowi sztucznej inteligencji. Te tematy prawne są bardzo istotne, w szczególności w zakresie zasad etycznych korzystania ze sztucznej inteligencji oraz odpowiedzialności, ponieważ sztuczna inteligencja może stanowić bardzo niebezpieczne narzędzie – podkreśla dr Agnieszka Besiekierska.

Raport Digital Poland „Przegląd strategii rozwoju sztucznej inteligencji na świecie” podaje, że Chiny na rozwój AI w 2017 roku wydały 28 mld dol. W USA tylko na jawne badania nad SI rząd wydał w 2016 roku 1,2 mld dol., a dodatkowe 30 mld dol. stanowiły inwestycje sektora prywatnego. Pod względem sztucznej inteligencji Europa dopiero goni światowe potęgi. Unia Europejska zapowiada, że co roku na ten cel będzie trafiać 20 mld euro. Zdaniem ekspertki większe wydatki na SI nie zastąpią jednak ram prawnych.

Proponuje się różne rozwiązania, m.in. kwestię odpowiedzialności za działania sztucznej inteligencji na zasadzie winy w nadzorze. Należy pamiętać, że rozwiązania oparte o sztuczną inteligencję są bardzo specyficzne, nie można ich porównać do niczego, co do tej pory istniało. Użytkownik sam nie do końca ma wpływ na to, w jaki sposób ta sztuczna inteligencja zadziała, ale nawet sam twórca, producent nie może ich do końca przewidzieć – przekonuje adwokat z Kancelarii Noerr.

Na możliwe zagrożenia wskazuje też raport „Złowrogie wykorzystanie sztucznej inteligencji” przygotowany przez przedstawicieli czternaście organizacji, m.in. Uniwersytet w Oksfordzie, Cambridge, czy organizacji OpenAI. Ryzykiem w rozwoju SI jest możliwość jej użycia w złej wierze – w sferze cyfrowej to np. kradzież danych i cyberataki, a w sferze politycznej np. do identyfikacji wrogów i ich eliminacji.

– Bot Microsoft w ciągu kilkunastu godzin obecności w mediach społecznościowych stał się rasistą i zwolennikiem Hitlera. Widać więc, jakie szkody może poczynić sztuczna inteligencja i jak trudno jest przypisać odpowiedzialność za jej działanie. Z jednej strony jest producent, twórca kodu, ale z drugiej strony użytkownik, który karmi to rozwiązanie oparte o sztuczną inteligencję pewnymi danymi i też może spowodować taki, a nie inny rozwój – ocenia dr Agnieszka Besiekierska.

 

Źródło: Newseria.pl






Polecane artykuły

Testy

Poradniki

Tagi

 android   apple   ciekawostki   gaming   google   gry   internet   komputery   kosmos   microsoft   mobilne   nauka   polska   samsung   smartfon   smartfony   tablet   technologia   telefony   windows 

Korzystamy z plików cookies i umożliwiamy zamieszczanie ich osobom trzecim. Pliki cookie pozwalają na poznanie twoich preferencji na podstawie zachowań w serwisie.
Uznajemy, że jeżeli kontynuujesz korzystanie z serwisu, wyrażasz na to zgodę. Poznaj szczegóły i możliwości zmiany ustawień w Polityce Cookies.