कॉर्नेल यूनिवर्सिटी की नई स्टडी में खुलासा हुआ है कि AI भी ब्रेन रॉट का शिकार हो सकता है। अगर AI मॉडल लगातार घटिया, वायरल या सनसनीखेज ऑनलाइन कंटेंट पर प्रशिक्षित होता है, तो उसकी रीजनिंग और लॉन्ग-कॉन्टेक्स्ट समझने की क्षमता कमजोर हो जाती है। इससे Chatbots असंवेदनशील और गलत जानकारी देने लगते हैं।
AI Brain Rot Study: कॉर्नेल यूनिवर्सिटी ने हाल ही में एक रिसर्च में दिखाया कि AI मॉडल भी ब्रेन रॉट का शिकार हो सकते हैं। अमेरिका स्थित यह अध्ययन 2025 में प्रकाशित हुआ और इसमें LLMs को लगातार वायरल और कम गुणवत्ता वाले इंटरनेट पोस्ट्स पर प्रशिक्षित किया गया। परिणामस्वरूप, AI की रीजनिंग और लॉन्ग-कॉन्टेक्स्ट समझने की क्षमता घट गई और Chatbots असंवेदनशील तथा गलत उत्तर देने लगे। शोधकर्ताओं के अनुसार, उच्च गुणवत्ता वाले डेटा के बावजूद पुराने जंक कंटेंट का असर पूरी तरह समाप्त नहीं हुआ।
AI पर ब्रेन रॉट का पहला असर
नई रिसर्च ने चौंकाने वाला खुलासा किया है कि AI भी ब्रेन रॉट का शिकार हो सकता है। कॉर्नेल यूनिवर्सिटी की स्टडी के अनुसार, अगर किसी AI मॉडल को लगातार घटिया, सनसनीखेज या वायरल इंटरनेट पोस्ट्स पर प्रशिक्षित किया जाए, तो उसकी रीजनिंग और लॉन्ग-कॉन्टेक्स्ट समझने की क्षमता घटने लगती है। इस प्रयोग में ARC और RULER बेंचमार्क टेस्ट्स में AI के स्कोर में भारी गिरावट देखी गई।
AI अब केवल गलत जानकारी देने लगा है बल्कि उसके व्यवहार में नकारात्मक बदलाव भी आए हैं। अध्ययन के अनुसार, प्रभावित मॉडल ने थॉट-स्किपिंग शुरू कर दी और सहयोगात्मक व जिम्मेदार स्वभाव घट गया, जबकि अहंकार और साइकोपैथिक प्रवृत्ति बढ़ गई।

कैसे होती है AI में ब्रेन रॉट
स्टडी में AI मॉडल को X (पूर्व ट्विटर) की वायरल और क्लिकबेट पोस्ट्स दिखाई गईं। ये डेटा बहुत ही सनसनीखेज और कम गुणवत्ता वाले थे। लगातार इन पोस्ट्स से प्रशिक्षित होने के बाद AI की तार्किक सोच और समस्या सुलझाने की क्षमता कमजोर हो गई।
हालांकि बाद में मॉडल को उच्च गुणवत्ता वाले डेटा से ट्रेन किया गया, लेकिन पुराने जंक डेटा का प्रभाव पूरी तरह खत्म नहीं हुआ। शोधकर्ताओं के अनुसार, यह दिखाता है कि AI में क्यूम्युलेटिव हार्म लंबे समय तक रह सकती है।
रोकथाम और समाधान की जरूरत
AI ब्रेन रॉट की समस्या भविष्य के लिए गंभीर चेतावनी है। इंटरनेट पर रोजाना फर्जी और सनसनीखेज जानकारी की बाढ़ के बीच, AI को सही और स्वच्छ डेटा देना चुनौतीपूर्ण लेकिन जरूरी है।
रिसर्चर्स का कहना है कि कंपनियों को डेटा कलेक्शन प्रोसेस पर पुनर्विचार करना चाहिए। केवल इंटरनेट स्क्रैपिंग पर्याप्त नहीं है। क्वालिटी कंट्रोल, फ़िल्टरिंग और डेटा वैलिडेशन सिस्टम अनिवार्य हैं, ताकि AI लंबे समय तक विश्वसनीय और सुरक्षित बने।
यह स्टडी स्पष्ट करती है कि AI भी इंसानों की तरह घटिया ऑनलाइन कंटेंट से प्रभावित हो सकता है, जिससे Chatbots की रीजनिंग और व्यवहार प्रभावित होते हैं। कंपनियों और डेवलपर्स के लिए यह संकेत है कि AI मॉडल के लिए डेटा क्वालिटी और सुरक्षा सर्वोच्च प्राथमिकता होनी चाहिए।













