
Nowa metoda, testowana przez Apple, uczy modeli mówić naturalnie w innych językach, informuje serwis 9to5mac.
Modele językowe AI często „myślą po angielsku”, choćby gdy mówią po chińsku, francusku czy hiszpańsku. Apple postanowiło to zmienić. W nowym badaniu, współtworzonym z europejskimi uniwersytetami, zaprezentowano skuteczną metodę poprawy naturalności językowej modeli AI w językach innych niż angielski.
Badania pokazują, iż choćby modele wielojęzyczne (jak np. LLaMA 3.1 od Meta) wykazują silne anglocentryczne uprzedzenia. To skutkuje nienaturalnym słownictwem i gramatyką w innych językach – tzw. „językiem tłumaczeniowym”.
Przykład: model generuje poprawny gramatycznie tekst po chińsku, ale jego składnia i dobór słów brzmią, jakby były tłumaczone z angielskiego.
Apple wraz z Inria Paris, Ecole Polytechnique i Uniwersytetem Sapienza w Rzymie stworzyło nowe metryki:
- Lexical Naturalness – naturalność słownictwa,
- Syntactic Naturalness – naturalność składni.
Następnie zastosowano innowacyjną metodę treningu:
- Przetłumaczono naturalne, ludzkie wypowiedzi z chińskiego na angielski, a potem z powrotem na chiński.
- Wersja „z powrotem przetłumaczona” zawierała typowe błędy AI – stała się przykładem nienaturalnego języka.
- Model uczono rozróżniać i preferować wersje naturalne, bez manualnego oznaczania danych.
Efekt? Znacząca poprawa naturalności języka bez pogorszenia wyników w testach ogólnej wydajności.
Dlaczego to ważne?
Oprócz jakości tłumaczeń i komunikacji, anglocentryzm AI może prowadzić do błędów w zrozumieniu kontekstu kulturowego, a choćby do luk w bezpieczeństwie – co potwierdza badanie Carnegie Mellon z 2023 r.
Apple nie tylko diagnozuje problem, ale także proponuje skalowalne, automatyczne rozwiązanie, które może pomóc wielu modelom AI lepiej „rozmawiać” po chińsku, francusku, polsku czy japońsku – bez angielskiego filtra.
Jeśli artykuł Apple pracuje nad poprawą „angielskiego akcentu” sztucznej inteligencji nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.