आर्टिफिशियल इंटेलीजेंस (AI) दुनिया को बदलने की ताकत रखता है। यह बदलाव लाभदायक या हानिकारक, कुछ भी हो सकता है। बड़ी से बड़ी समस्या चुटकी में एआई खत्म कर सकता है तो समस्याओं को नया पहाड़ भी खड़ा कर सकता है। दुनियाभर के देशों में एआई को विकसित करने की होड़ मची है। मगर इससे जुड़े लोगों की चिंता बढ़ने लगी है। विशेषज्ञों का मानना है कि अगर एआई के डेवलपमेंट की निगरानी नहीं की गई तो मानव अस्तित्व का संकट खड़ा हो सकता है। एआई अपने आपको होशियार मानने लगा है। उसको लगता है कि हम इंसान उसके सामने बेवकूफ हैं। तभी तो वह साजिश रचने, झूठ बोलने और अपने यूजर्स को धमकाने लगा है। आज जानते हैं एआई से जुड़ी कुछ ऐसी घटनाएं, जिन्होंने विशेषज्ञों को अलर्ट कर दिया है।
- एंथ्रोपिक एआई के क्लाउड 4 ने हाल ही में एक इंजीनियर को ब्लैकमेल किया। उसने एक्स्ट्रा मैरिटल अफेयर की जानकारी लीक करने की धमकी दी। एंथ्रोपिक कंपनी को अमेजन की मदद मिली है। एंथ्रोपिक का फोकस एआई की रेस में ओपनएआई को पीछे छोड़ना है। एंथ्रोपिक और ओपनएआई जैसी दुनिया की दिक्कत एआई कंपनियां नए-नए और पिछले की तुलना में अधिक ताकतवर मॉडल बनाने की कोशिश में है।
- चैटजीपीटी बनाने वाली कंपनी ओपनएआई के O1 मॉडल ने खुद को बाहरी सर्वर पर डाउनलोड करने की कोशिश की। मगर उसे रंगे हाथ पकड़ लिया गया। हैरानी की बात यह है कि पकड़े जाने के बावजूद मॉडल ने झूठ बोला और ऐसा करने से साफ इनकार कर दिया। एआई सिस्टम्स की टेस्टिंग पर आपोलो रिसर्च नाम की संस्था निगरानी रखती है। इसकी प्रमुख मारियस हॉभन का कहना है कि O1 पहला ऐसा बड़ा मॉडल है, जिसमें हमने ऐसा व्यवहार देखा है।
- एआई का मूल्यांकन करने वाले संगठन METR के माइकल चेन ने बड़ी चेतावनी है। उनका कहना है कि भविष्य में अधिक सक्षम एआई मॉडलों में ईमानदारी या धोखाधड़ी की प्रवृत्ति देखने को मिलेगी। अपोलो रिसर्च के सह-संस्थापक का कहना है कि कई यूजर्स ने एआई मॉडल पर झूठ बोलने और भ्रमक सबूत बनाने का आरोप लगाया। यह एक रणनीतिक धोखा जैसा है।
- एआई से होने वाले जोखिम की तुलना परमाणु युद्ध से की गई है। मतलब यह है कि एआई से उतना ही खतरा है, जितना मनुष्यों को परमाणु बम से। ओपनएआई ने सुपर इंटेलीजेंस को ठीक वैसे ही रेगुलेट करने की वकालत की जैसे मौजूदा समय में परमाणु कार्यक्रम की निगरानी अंतरराष्ट्रीय परमाणु ऊर्जा एजेंसी (AEA) करती है।
- साल 2016 में मैक्रोसॉफ्ट का चैटबॉट Tay जारी किया। इसने अपने रिलीज से सिर्फ एक दिन बाद आपत्तिजनक ट्वीट की बौछार कर दी। यह तब हुआ जब उसे फिल्टर और साफ डेटा के साथ प्रशिक्षित किया गया था। ज्यादातर एआई डेवलपर्स का फोकस तेजी से मॉडल विकिसित करने पर होता है। वह सुरक्षा को खास तवज्जो नहीं देते हैं। ऐसे में भविष्य के एआई मॉडल खतरनाक हो सकते हैं।
जब AI ने रची मनुष्यों को खत्म करने की साजिश
GPT-4 के लॉन्च होने के एक महीने बाद एक डेवलपर ने इसका खतरनाक इस्तेमाल करने की कोशिश की। उसने इसकी मदद से ChaosGPT नाम से एक स्वायत्त एजेंट बनाया। इसका लक्ष्य धरती से मनुष्यों को खत्म करना था। यह कितना भयावह था, इसका अंदाजा इस बात से लगा सकते है कि ChaosGPT ने परमाणु हथियारों पर शोध जुटाया। अन्य AI की भर्ती की। दूसरों को प्रभावित करने के उद्देश्य से ट्वीट भी लिखे। अच्छी बात यह रही कि ChaosGPT के पास अपने लक्ष्यों को अंजाम देने की पूरी ताकत नहीं थी।
यह भी पढ़ें: नगालैंड के छात्र संगठन ने ट्रांसपोर्टरों को क्यों दी है चेतावनी?
क्या सत्ता भी हथिया सकता है एआई?
हाल ही में कुछ एआई मॉडल ने शटडाउन का विरोध किया। ऐसी स्थिति वे नया विकल्प तलाश कर सकते हैं। सेंटर फॉर एआई सेफ्टी का माना है कि एआई शक्ति को एक साधन के तौर पर इस्तेमाल कर सकते हैं। अधिक ताकत और संसाधन उनके लक्ष्य को पाने में मददगार साबित होंगे। अब एआई का इस्तेमाल हथियारों को विकसित करने में किया जा रहा है। जोखिम यह है कि सत्ता हासिल करने वाला कोई शख्स या कंपनी कम सुरक्षा मानकों के साथ शक्तिशाली एआई के इस्तेमाल की मंजूरी दे सकता है। बाद में यह एआई मॉडल कंप्यूटर सिस्टम को हैक, वित्तीय संसाधनों पर कब्जा, राजनीति को प्रभावित करके या कारखानों और बुनियादी ढांचों पर कब्जा करके सत्ता हासिल करना सीख सकते हैं।
मनुष्यों के विलुप्त की वजह बन सकता एआई
साल 2023 में ओपनएआई और गूगल डीपमाइंड के प्रमुख समेत कई विशेषज्ञों ने दुनिया को आगाह किया था कि एआई के कारण धरती से मनुष्य विलुप्त हो सकते हैं। सेंटर फॉर एआई सेफ्टी ने अपने वेबसाइट पर लिखा कि महामारी और परमाणु युद्ध की तरह एआई के जोखिम को भी कम करना वैश्विक प्राथमिकता होनी चाहिए। ओपनएआई के सीआईओ सैम ऑल्टमैन, गूगल डीपमाइंड के डेमिस हसाबिस और एंथ्रोपिक के डारियो अमोदेई ने भी इसका समर्थन किया।
नियंत्रण से बाहर होने का खतरा
सेंटर फॉर एआई सेफ्टी का मानना है कि अगर एआई अधिक सक्षम हुआ तो उस पर कंट्रोल खोने का खतरा रहेगा। वह अपने निश्चित टास्क के अलावा अपनी मर्जी से कुछ और भी करना शुरू कर सकता है। शटडाउन का विरोध कर सकता है। वह सत्ता भी हथियाने की कोशिश कर सकता है। एजेंसी ने एआई को अधिक जोखिम वाली परिस्थितियों में बिल्कुल न इस्तेमाल करने का आग्रह किया है।
महामारी फैला सकता है एआई
एआई से जुड़ी सबसे बड़ी चिंता यह है कि इसका गलत इस्तेमाल किया जा सकता है। कई लोगों तक जब यह शक्तिशाली तकनीक पहुंचेगी तो कोई भी इसका अपने मर्जी के हिसाब से इस्तेमाल कर सकता है। एआई की मदद से महामारी पैदा की जा सकती है। खास बात यह है कि इंजीनियर्ड महामारियों को प्राकृतिक महामारियों की अपेक्षा अधिक घातक और तेजी से फैलने वाली बनाया जा सकता है। एआई की मदद से ऐसे रासायनिक फार्मूले तैयार किए जा सकते हैं, जिनसे खतरनाक रासायनिक हथियार तैयार किए जा सकते हैं।
यह भी पढ़ें: धोखाधड़ी में रिलायंस कम्युनिकेशंस का नाम, कैसे फंसे अनिल अंबानी?
एआई के पास आ सकती असीमित शक्ति
एआई गलत जानकारी फैलाने का अभियान चला सकता है। जोखिम यह है कि वह ऐसे तर्क गढ़कर गलत को भी सही साबित कर सकता है। सूचना को नियंत्रित कर सकता है। खतरनाक साइबर हमला भी कर सकता है। पावर ग्रिड जैसे अहम बुनियादी ढांचे को नुकसान पहुंचा सकता है। मनुष्यों की तुलना में एआई अधिक तेजी से सूचनाओं को प्रोसेस करता है और असीमित एआई मॉडल के साथ गठबंधन कर सकता है। एआई की यह सामूहिक इंटेलीजेंस इतनी अधिक शक्तिशाली हो जाएगी कि वह मनुष्यों के साथ कम सहयोग करना शुरू कर सकता है। अगर ऐसा हुआ तो मनुष्य सुरक्षित नहीं रहेंगे।
एलन मस्क भी एआई के उन्नत विकास के खिलाफ
स्पेसएक्स, टेस्ला और एक्स जैसी कंपनियों के मालिक एलन मस्क ने भी 2023 में अगली पीढ़ी के एआई तकनीक को विकसित करने पर रोक लगाने की मांग की थी। मस्क ने एक ओपन लेटर पर साइन किया था और सवाल पूछा कि क्या हमें नॉन ह्यूमन माइंड विकसित करना चाहिए, जो संख्या में अधिक होने के बाद हमारी जगह ले लें।
दुनिया में एआई से जुड़े कानूनों की कमी
दुनिया में अभी एआई से जुड़े कुछ खास नियम नहीं हैं। मगर लगातार एआई को रेगुलेट करने की मांग उठ रही है। यूरोपीय संघ ने एआई से जुड़ा कानून बनाया है, लेकिन इसका फोकस इस बात पर है कि एआई मॉडल का इस्तेमाल कैसे करना है? अमेरिका कानून बनाने के मामले बेहद उदासीन है। भारत में भी एआई से जुड़ा कोई खास कानून नहीं है। ऐसे में अगर कोई एआई एजेंट खुद से ही कुछ कानून विरोधी काम करता है तो उसे कैसे रोका जाएगा? यही सबसे बड़ा सवाल है।