Ile informacji naprawdę zapamiętują modele językowe? Przełomowe badania ujawniają ograniczenia pamięci AI

chip.pl 3 godzin temu
Zdjęcie: modele językowe


Nowe badania przeprowadzone przez zespół naukowców z Meta, Google DeepMind, Uniwersytetu Cornell i NVIDIA po raz pierwszy precyzyjnie określają, ile informacji potrafią zapamiętać duże modele językowe (LLM). Odkrycia te mogą mieć najważniejsze znaczenie dla toczących się sporów prawnych dotyczących praw autorskich w kontekście sztucznej inteligencji. Stała pojemność pamięci Badacze ustalili, iż modele językowe typu GPT […]
Idź do oryginalnego materiału