Wyłącznie: za wyzwaniem ustawodawców UE, by powstrzymać ChatGPT i generatywną sztuczną inteligencję

LONDYN/SZTOKHOLM, 28 kwietnia (Reuters) – (Ten artykuł został przepisany 28 kwietnia w celu usunięcia duplikatu słowa w akapicie 1)

Jeszcze w lutym generatywna sztuczna inteligencja nie zajmowała ważnego miejsca w planach prawodawców UE dotyczących regulacji technologii sztucznej inteligencji, takich jak ChatGPT.

the 108-stronicowa propozycja bloku W przypadku ustawy o AI, która została opublikowana dwa lata temu, znalazła się w niej tylko jedna wzmianka o słowie „chatbot”. Odniesienia do treści generowanych przez sztuczną inteligencję w dużej mierze odnoszą się do deepfake’ów: obrazów lub dźwięków zaprojektowanych w celu podszywania się pod ludzi.

Jednak do połowy kwietnia posłowie do PE ścigali się, aby zaktualizować te zasady, aby nadążyć za eksplozją zainteresowania generatywną sztuczną inteligencją, która podsyciła strach i niepokój od czasu, gdy OpenAI zaprezentowało ChatGPT sześć miesięcy temu.

Ta walka zakończyła się w czwartek nowym projektem legislacyjnym, który określił ochronę praw autorskich jako kluczową część wysiłków na rzecz utrzymania sztucznej inteligencji w ryzach.

Wywiady z czterema prawodawcami i innymi źródłami zbliżonymi do debat ujawniają po raz pierwszy, jak w ciągu zaledwie 11 dni ta niewielka grupa polityków opracowała coś, co stało się przełomowym ustawodawstwem, przekształcającym krajobraz regulacyjny dla OpenAI i jej konkurentów.

Ustawa nie jest ostateczna, a prawnicy twierdzą, że wejście w życie zajmie prawdopodobnie lata.

Jednak szybkość ich pracy jest też rzadkim przykładem konsensusu w Brukseli, często krytykowanej za powolne tempo podejmowania decyzji.

Zmiany w ostatniej chwili

Od swojej premiery w listopadzie ChatGPT stał się najszybciej rozwijającą się aplikacją w historii, wywołując falę aktywności ze strony konkurentów Big Tech i inwestycji w start-upy AI, takie jak Anthropic i Midjourney.

Ogromna popularność takich aplikacji skłoniła szefa unijnego przemysłu, Thierry’ego Bretona i innych, do wezwania do uregulowania usług podobnych do ChatGPT.

READ  Dow Jones nurkuje prawie 500 punktów w sprawie protestów China Covid, oficjalne komentarze Fed

Organizacja wspierana przez Elona Muska, miliardera CEO Tesla Inc (TSLA.O) i Twittera, zintensyfikowała działania, wysyłając list ostrzegający przed zagrożeniami egzystencjalnymi ze strony sztucznej inteligencji i wzywając do zaostrzenia przepisów.

17 kwietnia dziesiątki posłów do PE zaangażowanych w opracowywanie projektu ustawy podpisało list otwarty, w którym poparli niektóre części listu Muska i wezwali światowych przywódców do zwołania szczytu w celu znalezienia sposobów kontrolowania rozwoju zaawansowanej sztucznej inteligencji.

Jednak tego samego dnia dwóch z nich — Dragos Todorac i Brando Benevi — zaproponowało zmiany, które zmusiłyby firmy generujące systemy AI do ujawnienia wszelkich materiałów chronionych prawem autorskim, wykorzystywanych do trenowania ich modeli, według czterech źródeł obecnych na spotkaniach, które prosiły o nie do. Anonimowość ze względu na delikatność dyskusji.

Źródła podały, że ta surowa nowa propozycja miała poparcie różnych partii.

Jedna z propozycji konserwatywnego eurodeputowanego Axela Vossa – zmuszająca firmy do ubiegania się o zgodę posiadaczy praw przed wykorzystaniem danych – została odrzucona jako zbyt restrykcyjna i mogłaby wykoleić rodzącą się branżę.

Po ujawnieniu szczegółów w następnym tygodniu Unia Europejska przedstawiła proponowane przepisy, które mogą narzucić niewygodny poziom przejrzystości notorycznie tajemniczej branży.

„Muszę przyznać, że byłem pozytywnie zaskoczony tym, jak łatwo udało nam się dojść do tego, co powinno znaleźć się w tekście dotyczącym tych modeli” – powiedział Reuterowi Todorac w piątek.

„To pokazuje, że istnieje silny konsensus, wspólne zrozumienie, jak regulować w tym momencie”.

Komisja będzie głosować nad umową 11 maja i, jeśli się powiedzie, przejdzie do kolejnego etapu negocjacji, trójstronnego, w którym państwa członkowskie UE omówią treść z Komisją Europejską i Parlamentem.

„Czekamy, aby zobaczyć, czy umowa zostanie zawarta do tego czasu” – powiedziało źródło zaznajomione ze sprawą.

WIELKI BRAT KONTRA. pozycja lub terminator

Do niedawna posłowie do Parlamentu Europejskiego wciąż nie byli przekonani, że generatywna sztuczna inteligencja zasługuje na szczególną uwagę.

READ  Elon Musk zapowiada wzrost kosztów abonamentu na usługę Twittera bez reklam

W lutym Todorach powiedział Reuterowi, że generatywna sztuczna inteligencja „nie zostanie szczegółowo omówiona”. „To kolejna dyskusja, którą, jak sądzę, nie będziemy zajmować się w tym tekście” – powiedział.

Powołując się na zagrożenia bezpieczeństwa danych zamiast ostrzeżeń humanoidalnej inteligencji, powiedział: „Bardziej boję się Wielkiego Brata niż Terminatora”.

Ale Teodorach i jego współpracownicy zgadzają się teraz, że potrzebne są przepisy, które konkretnie ukierunkowują się na wykorzystanie generatywnej sztucznej inteligencji.

Zgodnie z nowymi propozycjami ukierunkowanymi na „modele podstawowe”, firmy takie jak OpenAI, które jest wspierane przez Microsoft Corp (MSFT.O), musiałyby ujawnić wszelkie materiały chronione prawem autorskim – książki, zdjęcia, filmy i inne – używane do szkolenia ich systemów.

Zarzuty naruszenia praw autorskich rozwścieczyły firmy zajmujące się sztuczną inteligencją w ostatnich miesiącach, gdy Getty Images pozwał Stable Diffusion za wykorzystywanie obrazów chronionych prawem autorskim do trenowania swoich systemów. OpenAI również spotkało się z krytyką za Odmów udostępniania szczegółów zestawu danych używanego do uczenia jego oprogramowania.

„Były wezwania z zewnątrz i wewnątrz parlamentu, aby zakazać ChatGPT lub sklasyfikować go jako wysokiego ryzyka” – powiedział poseł Svenja Hahn. „Ostateczny kompromis sprzyja innowacjom, ponieważ nie klasyfikuje tych modeli jako„ wysokiego ryzyka ”, ale raczej określa wymagania dotyczące przejrzystości i jakości”.

Dodatkowe raporty Martina Coultera w Londynie i Subanta Mukherjee w Sztokholmie; Montaż autorstwa Josephine Mason, Kennetha Lee i Matthew Lewisa

Nasze standardy: Zasady zaufania Thomson Reuters.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *