poniedziałek, 17 czerwca

Kilku obecnych i byłych pracowników OpenAI oraz Google DeepMind opublikowało list otwarty, w którym ostrzegają przed zagrożeniami wynikającymi z zaawansowanej sztucznej inteligencji (AI) oraz brakiem obecnej kontroli nad firmami pracującymi nad technologią AI.

Pracownicy sugerują, że istnieje wiele ryzyk związanych z rozwojem AI, w tym dalsze pogłębianie istniejących nierówności, manipulację i dezinformację oraz utratę kontroli nad autonomicznymi systemami AI, co według listu może prowadzić do zagłady ludzkości.

Firmy zajmujące się AI mają “silne zachęty finansowe”, aby kontynuować rozwój i unikać udostępniania informacji na temat środków ochrony i poziomów ryzyka. List stwierdza, że nie można na nich polegać, aby dobrowolnie je udostępniły.

Dopóki nie będzie skutecznego nadzoru rządowego nad tymi korporacjami, obecni i byli pracownicy należą do nielicznych osób, które mogą pociągnąć ich do odpowiedzialności przed społeczeństwem. Jednak szerokie umowy o zachowaniu poufności uniemożliwiają nam wyrażanie naszych obaw, z wyjątkiem samych firm, które mogą nie zająć się tymi kwestiami. Zwykła ochrona sygnalistów jest niewystarczająca, ponieważ skupia się na nielegalnej działalności, a wiele niepokojących nas ryzyk nie zostało jeszcze uregulowanych.

Pracownicy wzywają firmy AI do wprowadzenia solidnych zabezpieczeń dla informatorów, którzy chcą wyrazić swoje obawy dotyczące ryzyka związanego z AI. Wśród tych zaleceń znajdują się:

  • Unikanie tworzenia lub narzucania umów, które uniemożliwiają krytykę związaną z ryzykiem.
  • Oferowanie weryfikowalnego anonimowego procesu, w którym pracownicy mogą zgłaszać swoje obawy związane z ryzykiem do zarządu, organów regulacyjnych i niezależnych organizacji z odpowiednią wiedzą.
  • Wspieranie kultury otwartej krytyki, która pozwala pracownikom wyrażać swoje obawy związane z ryzykiem technologii publicznie, przed zarządem, organami regulacyjnymi i innymi, pod warunkiem ochrony tajemnic handlowych.
  • Unikanie odwetu wobec pracowników, którzy publicznie ujawniają poufne informacje związane z ryzykiem po nieudanych innych procesach.

W liście podpisało się łącznie 13 pracowników, w tym siedmiu byłych pracowników OpenAI, czterech obecnych pracowników OpenAI, jeden były pracownika Google DeepMind i jeden obecny pracownik Google DeepMind. OpenAI grozi pracownikom utratą udziałów w kapitale za wyrażanie swoich opinii, a także zmusza ich do podpisywania drakońskich umów o poufności, które tłumią krytykę.

List pojawia się w momencie, gdy Apple przygotowuje się do ogłoszenia wielu funkcji opartych na AI dla iOS 18 i innych aktualizacji oprogramowania w poniedziałek. Apple pracuje nad własnymi funkcjonalnościami AI, które zostaną zintegrowane z aplikacjami na całym systemie operacyjnym, a także podpisał umowę z OpenAI w celu zintegrowania funkcji ChatGPT w ‌iOS 18‌.

Udostępnij:
Subscribe
Powiadom o
guest

0 komentarzy
Inline Feedbacks
View all comments
0
Chciałbyś się podzielić swoim przemyśleniem? Zostaw komentarzx