कॉर्नेल यूनिवर्सिटी की स्टडी में हुआ खुलासा
रिसर्च टीम ने अपने अध्ययन में ‘LLM Brain Rot Hypothesis’ पर काम किया, जिसके तहत उन्होंने जांचा कि जब किसी लार्ज लैंग्वेज मॉडल (LLM) को बार-बार भ्रमित करने वाले, सनसनीखेज या घटिया ऑनलाइन डेटा पर ट्रेन किया जाता है, तो उसकी तर्क करने और समझने की क्षमता धीरे-धीरे कम होने लगती है।
इस तरह AI हुआ ब्रेन रॉट का शिकार
इस अध्ययन के दौरान वैज्ञानिकों ने एक AI मॉडल को X (पहले ट्विटर) के घटिया या “जंक” डेटा पर ट्रेन किया, जिनमें “TODAY ONLY”, “WOW” जैसे वायरल, क्लिकबेट और अतिशयोक्तिपूर्ण शब्दों का इस्तेमाल था। इसके बाद मॉडल की परफॉर्मेंस को रीजनिंग और अंडरस्टैंडिंग टेस्ट जैसे बेंचमार्क्स पर परखा गया, जिसके नतीजे चौंकाने वाले थे। एआई मॉडल का रीजनिंग स्कोर 74.9 से घटकर 57.2 पर पहुंच गया, जबकि लॉन्ग-कॉन्टेक्स्ट समझने की क्षमता 84.4 से लुढ़क कर 52.3 तक पहुंच गई।
खराब डेटा एआई को कर रहा बीमार
यह शोध केवल तकनीकी चेतावनी नहीं बल्कि डिजिटल युग के लिए एक गहरी सामाजिक सीख है। जिस तरह इंसान लगातार वायरल कंटेंट के बोझ तले अपनी मानसिक क्षमता खो रहे हैं, उसी तरह एआई मॉडल भी इंटरनेट के खराब डेटा से बीमार हो रहे हैं। अगर आज एआई को स्वच्छ, तथ्यात्मक और संतुलित डेटा न मिला, तो भविष्य में यह तकनीक उतनी विश्वसनीय नहीं रह पाएगी जितनी आज है।



