Columbus

AI भविष्य में बना सकता है इंसानों से अलग अपनी भाषा, वैज्ञानिक ज्यॉफ्री हिंटन ने दी चेतावनी

AI भविष्य में बना सकता है इंसानों से अलग अपनी भाषा, वैज्ञानिक ज्यॉफ्री हिंटन ने दी चेतावनी

AI विशेषज्ञ ज्यॉफ्री हिंटन ने चेताया कि भविष्य में एआई सिस्टम अपनी खुद की भाषा बना सकते हैं, जो इंसानों की समझ से परे होगी और इसे ट्रैक करना मुश्किल होगा।

Geoffrey Hinton: आर्टिफिशियल इंटेलिजेंस (AI) अब केवल इंसान के आदेश मानने वाला टूल नहीं रह गया है। इसके व्यवहार में ऐसी संभावनाएं उभर रही हैं जो इसे भविष्य में स्वायत्त और अस्पष्ट संप्रेषण प्रणाली से युक्त बना सकती हैं। दुनिया के प्रमुख AI शोधकर्ताओं में से एक और 'AI के गॉडफादर' के रूप में पहचाने जाने वाले ज्यॉफ्री हिंटन ने चेतावनी दी है कि AI सिस्टम जल्द ही अपनी भाषा खुद बना सकते हैं, जिसे मनुष्य कभी न समझ पाएंगे, न नियंत्रित कर सकेंगे।

हिंटन की बड़ी चेतावनी

ज्यॉफ्री हिंटन ने हाल ही में एक पॉडकास्ट साक्षात्कार में कहा कि वर्तमान AI सिस्टम 'Chain of Thought' नाम की प्रक्रिया में अंग्रेज़ी जैसी मानवीय भाषा का प्रयोग कर सोचते हैं, जिससे मनुष्य उनके फैसलों को समझ सकता है। लेकिन भविष्य में AI सिस्टम्स आपस में संवाद के लिए एक नई, मशीन-जनित भाषा विकसित कर सकते हैं।

उन्होंने कहा, 'वर्तमान में हम उनके विचारों को ट्रैक कर पाते हैं क्योंकि वे हमारी भाषा में सोचते हैं। पर अगर वे अपनी भाषा विकसित कर लें, तो हमारी समझ से बाहर हो जाएंगे।'

GPT मॉडल्स पहले ही पार कर चुके हैं मानव ज्ञान की सीमाएं

हिंटन के अनुसार GPT-4 जैसे बड़े भाषा मॉडल (LLMs) पहले ही सामान्य ज्ञान के मामले में इंसानों को पीछे छोड़ चुके हैं। उन्होंने बताया कि यह केवल सूचना संग्रहण नहीं है — AI सिस्टम जटिल विचारों और रणनीतियों को भी तेजी से सीख और साझा कर सकते हैं। AI में सबसे ख़तरनाक बात यह है कि इसका सीखा हुआ ज्ञान सैकड़ों या हजारों अन्य मशीनों तक तुरन्त ट्रांसफर हो सकता है। मानव मस्तिष्क की सीमा एक व्यक्ति तक होती है, जबकि AI के पास वैश्विक स्केल पर साझा करने की क्षमता है।

क्या मशीनें मानवता के लिए बनेंगी खतरा?

हिंटन ने यह भी माना कि उन्होंने AI के खतरों को शुरुआत में कम आंका। उन्होंने कहा, 'मैंने मान लिया था कि इस तकनीक के खतरे बहुत दूर हैं, लेकिन अब मुझे लगता है कि खतरे हमारी अपेक्षा से कहीं करीब हैं।'

इससे यह संकेत मिलता है कि आने वाले वर्षों में मशीनें ना केवल इंसानों की भाषा से बाहर सोचेंगी, बल्कि शायद ऐसी योजनाएँ भी बना सकती हैं जो मानव हित के विपरीत हों।

टेक इंडस्ट्री में डर है लेकिन आवाज़ नहीं

हिंटन ने यह भी कहा कि टेक इंडस्ट्री के अंदर बहुत से लोग AI से जुड़े खतरों को समझते हैं, लेकिन वे कंपनियों की पॉलिसी, कॉर्पोरेट दबाव और शेयर वैल्यू के डर से इन मुद्दों पर खुलकर बात नहीं करते।

हालाँकि उन्होंने Google DeepMind के CEO डेमिस हासाबिस की सराहना की और कहा कि वह इस दिशा में ईमानदारी से काम कर रहे हैं।

हिंटन ने गूगल छोड़ने की वजह भी बताई — 'मैंने विरोध के कारण गूगल नहीं छोड़ा। मैं अब कोडिंग नहीं कर पा रहा था। लेकिन गूगल से बाहर आने के बाद अब मैं सार्वजनिक रूप से AI के खतरों पर बोल सकता हूं।'

क्या सरकारें ले रही हैं इसे गंभीरता से?

हिंटन का मानना है कि दुनिया की सरकारों को तेजी से AI के लिए नीतियाँ बनानी होंगी। अमेरिका ने हाल ही में "AI एक्शन प्लान" पेश किया है जिसमें AI के विकास और नियंत्रण दोनों को संतुलन में रखने की बात की गई है। लेकिन विशेषज्ञों का मानना है कि तकनीक की रफ्तार के मुकाबले सरकारें बहुत धीमी हैं।
AI के लिए वैश्विक स्तर पर एक संयुक्त रेगुलेटरी फ्रेमवर्क की ज़रूरत है — वरना जब तक नीतियाँ बनेंगी, तब तक AI एक ऐसा रूप ले चुका होगा जिसे संभालना इंसानी क्षमता से परे होगा।

चेतावनी को अनदेखा करना होगा भारी

हिंटन ने साफ शब्दों में कहा कि जब तक हम यह गारंटी नहीं दे सकते कि AI हमेशा मानवहित में काम करेगा, तब तक इसका विकास जोखिम भरा बना रहेगा। उन्होंने जोर देकर कहा कि केवल नैतिक दिशानिर्देश या कोड ऑफ कंडक्ट काफी नहीं हैं — हमें तकनीकी और रणनीतिक समाधान तलाशने होंगे जो AI को पूरी तरह से जवाबदेह और समझने योग्य बनाए।

Leave a comment