Europejska sztuczna inteligencja – jak Stary Kontynent odpowie na amerykańskie projekty AI?

Europejska sztuczna inteligencja – jak Stary Kontynent odpowie na amerykańskie projekty AI?

Choć koncept sztucznej inteligencji wciąż wzbudza w nas liczne wątpliwości, jedno jest pewne – czas czystego teoretyzowania dobiegł końca i oto stoimy w obliczu prawdziwej rewolucji przemysłowej. ChatGPT, czyli chatbot stworzony przez amerykańskie laboratorium badawcze OpenAI, wywołał olbrzymie poruszenie na całym świecie, wzniecając mnóstwo obaw i nadziei. Odrębnym problemem jest jednak to, czy Europie znów przyjdzie pogodzić się z faktem, że Stany Zjednoczone obejmują globalny monopol nad kolejną niesamowicie ważną i przyszłościową dziedziną. Czy Stary Kontynent dysponuje odpowiednimi środkami i narzędziami, by sprostać temu naukowemu wyzwaniu? Mało tego – czy w ogóle powinien je podjąć?

Odpowiedzi na te i inne pytania poznaliśmy 1 marca 2023 roku w ramach wyjątkowego wydarzenia online zorganizowanego przez firmę Custom.MT. Podczas jednego z paneli dotyczących zastosowania aplikacji ChatGPT, dużych modeli językowych (LLM) oraz generatywnej sztucznej inteligencji w branży lokalizacyjnej swoją wiedzą i opiniami podzielili się znakomici goście: Jochen Hummel (Coreon & ESTeam), Ariane Nabeth-Halber (ViaDialog), Gema Ramírez-Sánchez (Prompsit Language Engineering) oraz Nicolas Flores-Herr (OpenGPT-X). Aby dowiedzieć się, o czym rozmawiali, przeczytaj dalszą część naszego artykułu.

Jednym z poruszonych zagadnień była konieczność podjęcia wyzwania przez Europę oraz przyczyny, dla których bierność byłaby w tej sytuacji najgorszym rozwiązaniem. Jak zauważył Jochen Hummel, oddanie monopolu na rozwój sztucznej inteligencji Amerykanom wiązałoby się z wieloma rozmaitymi komplikacjami.

Po pierwsze, modele tworzone w USA siłą rzeczy uczone są z wykorzystaniem głównie amerykańskich baz danych, a to oznacza, że już na samym wstępie mamy do czynienia z pewnego rodzaju językową i kulturową tendencyjnością. Modele językowe powinny funkcjonować w ramach infrastruktury publicznej – dzięki temu jest większa szansa, że mniej powszechne języki również zostaną w pełni uwzględnione.

Po drugie, należy rozważyć kwestie natury prawnej (takie jak ochrona danych i RODO czy prawa autorskie), technologiczno-cybernetycznej (bezpieczeństwo danych) oraz etycznej (zasady etyczne w każdym kraju są inne).

Po trzecie, model amerykański wciąż nie jest doskonały – nadal zdarza się, że ma tzw. halucynacje, czyli odpowiada niezgodnie z prawdą, tworząc własne, sprzeczne z faktami historie. Biznes natomiast potrzebuje sztucznej inteligencji, na której można w pełni polegać – jest to więc doskonała sposobność dla Europy, by nie tylko dogonić Stany Zjednoczone, ale i je prześcignąć. Na to jednak potrzebne są środki – nie dotacje i granty, a inwestycje, które później zwrócą się z nawiązką. Dobrze rozumie to na przykład organizacja LEAM (Large European AI Models), która przygotowała studium wykonalności na temat tego, jak mógłby wyglądać duży model AI w przypadku Niemiec – jednym z celów organizacji było zainteresowanie tą kwestią niemieckiego rządu.

Ariane Nabeth-Halber również zwróciła uwagę na to, że jeśli Europa chce mieć jakąkolwiek szansę w wyścigu ze Stanami Zjednoczonymi, musi podjąć zdecydowane kroki już teraz. Zauważyła także, że duże modele językowe potrzebują ogromnych ilości danych, zaś tworzenie modeli w wielu państwach i dostarczanie danych z rozmaitych krajów i regionów zapewniłoby nam pożądaną różnorodność – każdy powinien móc samodzielnie zdecydować, z którego modelu chce skorzystać (a tym samym – co chce wraz z nim „odziedziczyć”). Transparentne, otwarte modele językowe funkcjonujące w ramach infrastruktury publicznej pozwoliłyby nam na precyzyjne dostosowywanie oprogramowania do własnych potrzeb oraz na zachowanie prywatności przesyłanych danych. Muszą być one jednak tworzone nie przez jedną korporację, a przez liczne organizacje badawcze czy specjalistów wyselekcjonowanych w ramach projektów rządowych – na przykład we Francji nad prężnie prowadzonymi badaniami czuwa mianowany przez ministerstwo koordynator ds. sztucznej inteligencji. Dobrym scenariuszem byłaby też bliska współpraca między przedsiębiorstwami a instytucjami badawczymi.

Podobnego zdania była dyrektor generalna hiszpańskiej firmy Prompsit Language Engineering, Gema Ramírez-Sánchez, która podkreśliła potrzebę demokratyzacji wiedzy oraz działania jako społeczność, a także wagę tworzenia w pełni otwartych i powszechnie dostępnych infrastruktur oraz dążenia do decentralizacji władzy technologicznej. Jak zauważyła, Europa ma w sobie olbrzymi potencjał – na jej obszarze działa mnóstwo hiperwydajnych centrów obliczeniowych, które mogą przyczynić się do szybszego, bardziej zrównoważonego rozwoju sztucznej inteligencji. Branża językowa jest zaś w tym procesie niezwykle potrzebna, chociażby ze względu na konieczność oceny rezultatów i wydajności tworzonych produktów pod kątem poprawności gramatyczno-leksykalnej, tendencyjności odpowiedzi czy aspektów kulturowych. Aby jednak móc osiągnąć sukces, potrzeba ogromnych ilości danych, dzięki którym można byłoby wytrenować modele, a to już może nastręczać poważnych problemów – w przypadku niektórych europejskich krajów okazało się, że nie ma wystarczająco dużo lokalnych materiałów. Dobrym i realistycznym rozwiązaniem mogłoby być użycie źródeł z Internet Archive bądź uzyskanie dostępu do bogactwa niewrażliwych danych zbieranych przez rządy poszczególnych państw (do zbiorów tych należą m.in. informacje klimatyczne, statystyczne czy geologiczne – przyp. aut.).

Nicolas Flores-Herr również zgodził się z tym, że Europa musi działać prędko i uzyskać dostęp do olbrzymiej ilości tekstów – w grę wchodzi bowiem dominacja technologiczna i mamy wiele do stracenia. Szybki rozwój jest zaś konieczny tym bardziej, że na niektóre wyniki można liczyć wyłącznie od pewnego poziomu; rozwój produktu musi zaś iść ramię w ramię z postępem badań i nowymi odkryciami. Obszarami, na których warto, a nawet trzeba się skoncentrować, są konwersacyjna sztuczna inteligencja, analityka dokumentów oraz tłumaczenia na prosty język.

Europa zdecydowanie powinna wykonać swój ruch i zaproponować własną alternatywę dla rozwiązań amerykańskich, tym bardziej że  dysponuje wszelkimi odpowiednimi narzędziami, aby to zrobić (przynajmniej w teorii). Musi jednak pokonać przy tym cały szereg przeszkód, takich jak niewystarczające środki, stosunkowo niewielkie ilości danych potrzebnych do trenowania modeli oraz już kształtująca się przewaga Stanów Zjednoczonych. Należy przy tym pamiętać, że nie chodzi tu o bezmyślny wyścig, dumę i czystą ambicjonalność – gra toczy się o swojego rodzaju równouprawnienie językowe i technologiczne. Tylko oferując różnorodne i powszechnie dostępne rozwiązania, możemy mówić o prawdziwej demokratyzacji modeli sztucznej inteligencji.

Źródło: Custom.MT, ChatGPT in Localization. „Research panel: Pathways to a European GPT”.
Prowadzący: Konstantin Dranch. Wydarzenie online, 1 marca 2023 r.: https://www.youtube.com/watch?v=jM91CdLXuog

Podziel się tym wpisem

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *