Europejska sztuczna inteligencja – jak Stary Kontynent odpowie na amerykańskie projekty AI?
Choć koncept sztucznej inteligencji wciąż wzbudza w nas liczne wątpliwości, jedno jest pewne – czas czystego teoretyzowania dobiegł końca i oto stoimy w obliczu prawdziwej rewolucji przemysłowej. ChatGPT, czyli chatbot stworzony przez amerykańskie laboratorium badawcze OpenAI, wywołał olbrzymie poruszenie na całym świecie, wzniecając mnóstwo obaw i nadziei. Odrębnym problemem jest jednak to, czy Europie znów przyjdzie pogodzić się z faktem, że Stany Zjednoczone obejmują globalny monopol nad kolejną niesamowicie ważną i przyszłościową dziedziną. Czy Stary Kontynent dysponuje odpowiednimi środkami i narzędziami, by sprostać temu naukowemu wyzwaniu? Mało tego – czy w ogóle powinien je podjąć?
Odpowiedzi na te i inne pytania poznaliśmy 1 marca 2023 roku w ramach wyjątkowego wydarzenia online zorganizowanego przez firmę Custom.MT. Podczas jednego z paneli dotyczących zastosowania aplikacji ChatGPT, dużych modeli językowych (LLM) oraz generatywnej sztucznej inteligencji w branży lokalizacyjnej swoją wiedzą i opiniami podzielili się znakomici goście: Jochen Hummel (Coreon & ESTeam), Ariane Nabeth-Halber (ViaDialog), Gema Ramírez-Sánchez (Prompsit Language Engineering) oraz Nicolas Flores-Herr (OpenGPT-X). Aby dowiedzieć się, o czym rozmawiali, przeczytaj dalszą część naszego artykułu.
Jednym z poruszonych zagadnień była konieczność podjęcia wyzwania przez Europę oraz przyczyny, dla których bierność byłaby w tej sytuacji najgorszym rozwiązaniem. Jak zauważył Jochen Hummel, oddanie monopolu na rozwój sztucznej inteligencji Amerykanom wiązałoby się z wieloma rozmaitymi komplikacjami.
Ariane Nabeth-Halber również zwróciła uwagę na to, że jeśli Europa chce mieć jakąkolwiek szansę w wyścigu ze Stanami Zjednoczonymi, musi podjąć zdecydowane kroki już teraz. Zauważyła także, że duże modele językowe potrzebują ogromnych ilości danych, zaś tworzenie modeli w wielu państwach i dostarczanie danych z rozmaitych krajów i regionów zapewniłoby nam pożądaną różnorodność – każdy powinien móc samodzielnie zdecydować, z którego modelu chce skorzystać (a tym samym – co chce wraz z nim „odziedziczyć”). Transparentne, otwarte modele językowe funkcjonujące w ramach infrastruktury publicznej pozwoliłyby nam na precyzyjne dostosowywanie oprogramowania do własnych potrzeb oraz na zachowanie prywatności przesyłanych danych. Muszą być one jednak tworzone nie przez jedną korporację, a przez liczne organizacje badawcze czy specjalistów wyselekcjonowanych w ramach projektów rządowych – na przykład we Francji nad prężnie prowadzonymi badaniami czuwa mianowany przez ministerstwo koordynator ds. sztucznej inteligencji. Dobrym scenariuszem byłaby też bliska współpraca między przedsiębiorstwami a instytucjami badawczymi.
Podobnego zdania była dyrektor generalna hiszpańskiej firmy Prompsit Language Engineering, Gema Ramírez-Sánchez, która podkreśliła potrzebę demokratyzacji wiedzy oraz działania jako społeczność, a także wagę tworzenia w pełni otwartych i powszechnie dostępnych infrastruktur oraz dążenia do decentralizacji władzy technologicznej. Jak zauważyła, Europa ma w sobie olbrzymi potencjał – na jej obszarze działa mnóstwo hiperwydajnych centrów obliczeniowych, które mogą przyczynić się do szybszego, bardziej zrównoważonego rozwoju sztucznej inteligencji. Branża językowa jest zaś w tym procesie niezwykle potrzebna, chociażby ze względu na konieczność oceny rezultatów i wydajności tworzonych produktów pod kątem poprawności gramatyczno-leksykalnej, tendencyjności odpowiedzi czy aspektów kulturowych. Aby jednak móc osiągnąć sukces, potrzeba ogromnych ilości danych, dzięki którym można byłoby wytrenować modele, a to już może nastręczać poważnych problemów – w przypadku niektórych europejskich krajów okazało się, że nie ma wystarczająco dużo lokalnych materiałów. Dobrym i realistycznym rozwiązaniem mogłoby być użycie źródeł z Internet Archive bądź uzyskanie dostępu do bogactwa niewrażliwych danych zbieranych przez rządy poszczególnych państw (do zbiorów tych należą m.in. informacje klimatyczne, statystyczne czy geologiczne – przyp. aut.).
Nicolas Flores-Herr również zgodził się z tym, że Europa musi działać prędko i uzyskać dostęp do olbrzymiej ilości tekstów – w grę wchodzi bowiem dominacja technologiczna i mamy wiele do stracenia. Szybki rozwój jest zaś konieczny tym bardziej, że na niektóre wyniki można liczyć wyłącznie od pewnego poziomu; rozwój produktu musi zaś iść ramię w ramię z postępem badań i nowymi odkryciami. Obszarami, na których warto, a nawet trzeba się skoncentrować, są konwersacyjna sztuczna inteligencja, analityka dokumentów oraz tłumaczenia na prosty język.
Europa zdecydowanie powinna wykonać swój ruch i zaproponować własną alternatywę dla rozwiązań amerykańskich, tym bardziej że dysponuje wszelkimi odpowiednimi narzędziami, aby to zrobić (przynajmniej w teorii). Musi jednak pokonać przy tym cały szereg przeszkód, takich jak niewystarczające środki, stosunkowo niewielkie ilości danych potrzebnych do trenowania modeli oraz już kształtująca się przewaga Stanów Zjednoczonych. Należy przy tym pamiętać, że nie chodzi tu o bezmyślny wyścig, dumę i czystą ambicjonalność – gra toczy się o swojego rodzaju równouprawnienie językowe i technologiczne. Tylko oferując różnorodne i powszechnie dostępne rozwiązania, możemy mówić o prawdziwej demokratyzacji modeli sztucznej inteligencji.
Źródło: Custom.MT, ChatGPT in Localization. „Research panel: Pathways to a European GPT”.
Prowadzący: Konstantin Dranch. Wydarzenie online, 1 marca 2023 r.: https://www.youtube.com/watch?v=jM91CdLXuog
Dodaj komentarz