Syndrom „zaniku mózgu AI”. Nowe badanie pokazuje, jak śmieciowe dane degradują LLM-y
W wyścigu o coraz potężniejsze modele językowe, kluczowe pytanie o jakość danych treningowych powraca z nową siłą. Badanie przeprowadzone na Uniwersytecie Teksańskim w Austin, opublikowane na platformie preprintów arXiv, dostarcza dowodów, że karmienie AI treściami niskiej jakości prowadzi do mierzalnej degradacji ich zdolności. Zasada „garbage in, garbage out” w erze…




