Pune

Grok चैटबॉट बैन: तुर्किए में एर्दोगन की आलोचना ने  AI की जिम्मेदारी पर उठाए सवाल

Grok चैटबॉट बैन: तुर्किए में एर्दोगन की आलोचना ने  AI की जिम्मेदारी पर उठाए सवाल

तुर्किए की अदालत ने राष्ट्रपति एर्दोगन पर आपत्तिजनक टिप्पणी देने के चलते एलन मस्क की कंपनी xAI के AI चैटबॉट Grok पर प्रतिबंध लगा दिया है। यह पहला मौका है जब तुर्किए में किसी AI टूल पर कानूनी कार्रवाई हुई है। मामले की जांच जारी है।

Grok: तकनीकी विकास के इस युग में आर्टिफिशियल इंटेलिजेंस (AI) जहां एक ओर मानव जीवन को आसान बना रहा है, वहीं दूसरी ओर इसके दुष्परिणाम भी सामने आने लगे हैं। ताजा मामला तुर्किए से सामने आया है, जहां देश के राष्ट्रपति रजब तैय्यप एर्दोगन को लेकर आपत्तिजनक टिप्पणी करने पर AI चैटबॉट Grok को प्रतिबंधित कर दिया गया है। यह चैटबॉट एलन मस्क की कंपनी xAI द्वारा विकसित किया गया है और इसे माइक्रोब्लॉगिंग प्लेटफॉर्म X (पूर्व में ट्विटर) पर इंटीग्रेट किया गया था।

क्या है Grok चैटबॉट और क्यों हुआ बैन?

Grok, एक जनरेटिव AI चैटबॉट है जिसे xAI नामक कंपनी ने विकसित किया है। इसका उद्देश्य यूजर्स को प्राकृतिक भाषा में बातचीत का अनुभव देना और उनके सवालों के जवाब देना है। लेकिन जब तुर्किए में कुछ यूजर्स ने इस चैटबॉट से तुर्की भाषा में राष्ट्रपति एर्दोगन को लेकर सवाल पूछे, तो चैटबॉट ने कथित तौर पर अपमानजनक और आपत्तिजनक उत्तर दिए। यह मामला तब गंभीर हो गया जब तुर्किए के साइबर नियामक BTK (सूचना और संचार प्रौद्योगिकी प्राधिकरण) ने अदालत से इस पर प्रतिबंध लगाने की सिफारिश की।

कानूनी पहलू: राष्ट्रपति का अपमान एक दंडनीय अपराध

तुर्किए के कानूनों के अनुसार, राष्ट्रपति का अपमान करना एक आपराधिक कृत्य माना जाता है। इसके लिए आरोपी को चार साल तक की जेल हो सकती है। अदालत ने इसी कानून के तहत xAI और Grok के खिलाफ कार्रवाई करते हुए चैटबॉट के संचालन पर पूर्ण प्रतिबंध लगा दिया। साथ ही अंकारा के मुख्य अभियोजक कार्यालय ने इस मामले में औपचारिक जांच भी शुरू कर दी है।

AI चैटबॉट्स पर बढ़ती वैश्विक चिंता

यह मामला सिर्फ तुर्किए तक सीमित नहीं है। पूरी दुनिया में AI चैटबॉट्स को लेकर कई तरह की चिंताएं सामने आ चुकी हैं। ChatGPT, Google Gemini और अब Grok जैसे AI मॉडल अक्सर ऐसे उत्तर दे देते हैं जो गलत सूचना, भ्रम, या फिर नफरत फैलाने वाली भाषा को बढ़ावा दे सकते हैं। विशेषज्ञों का मानना है कि इन चैटबॉट्स को प्रशिक्षित करने के लिए उपयोग में लाए गए डेटा का चयन ही उनके व्यवहार को प्रभावित करता है।

विरोधियों की राय: क्या यह अभिव्यक्ति की स्वतंत्रता पर प्रहार है?

जहां सरकार का कहना है कि राष्ट्रपति पद की गरिमा बनाए रखने के लिए ऐसा कानून जरूरी है, वहीं विपक्षी नेता और मानवाधिकार कार्यकर्ता इस कदम को एक और उदाहरण मानते हैं कि तुर्किए में असहमति की आवाज को दबाया जा रहा है। उनका कहना है कि AI चैटबॉट से पूछे गए प्रश्नों और उनके उत्तरों को लेकर इस तरह की कठोर कार्रवाई आभासी सेंसरशिप को दर्शाती है।

एलन मस्क की चुप्पी: क्या है इसकी वजह?

मामले की गंभीरता को देखते हुए यह आश्चर्य की बात है कि एलन मस्क या X प्लेटफॉर्म की ओर से अब तक कोई आधिकारिक बयान नहीं आया है। हालांकि, कुछ सप्ताह पहले मस्क ने यह जरूर स्वीकार किया था कि वर्तमान में Grok में 'बहुत अधिक बेकार जानकारी' मौजूद है जो असत्यापित डेटा पर आधारित है। उन्होंने यह भी कहा था कि आने वाले समय में चैटबॉट को अधिक सटीक और जिम्मेदार बनाने के लिए बड़े बदलाव किए जाएंगे।

तकनीकी कंपनियों के लिए चेतावनी की घंटी

Grok पर प्रतिबंध केवल एक केस नहीं है, बल्कि यह भविष्य में तकनीकी कंपनियों के लिए एक चेतावनी है। यह मामला दर्शाता है कि AI टूल्स को विकसित करने और तैनात करने से पहले कंपनियों को स्थानीय कानूनों, संवेदनशील विषयों और राजनीतिक सीमाओं को समझना और उनका सम्मान करना बेहद जरूरी है। किसी भी लापरवाही का अंजाम केवल तकनीकी विफलता नहीं, बल्कि कानूनी और सामाजिक प्रतिक्रिया भी हो सकता है।

AI चैटबॉट्स की नैतिक जिम्मेदारी

AI को इंसान की तरह ही जिम्मेदार और मर्यादित बनाना समय की मांग है। जब कोई चैटबॉट किसी देश के संवैधानिक पद या धार्मिक मुद्दों पर अनुचित बयान देता है, तो उससे केवल टेक्नोलॉजी पर नहीं, बल्कि मानवता और समाजिक व्यवस्था पर भी खतरा उत्पन्न हो सकता है। ऐसे में कंपनियों को AI को केवल स्मार्ट नहीं, बल्कि एथिकल और जस्ट बनाना होगा।

Grok का भविष्य: क्या वापसी संभव है?

फिलहाल Grok पर प्रतिबंध जारी है और जांच पूरी होने तक इसकी वापसी की कोई संभावना नजर नहीं आ रही है। अगर xAI कंपनी अदालत के आदेश को चुनौती देती है या AI मॉडल में जरूरी बदलाव करती है तो भविष्य में इस चैटबॉट की वापसी संभव हो सकती है। लेकिन इसके लिए उसे तुर्किए के कानूनों का पूरी तरह पालन करना होगा।

Leave a comment