आर्टिफिशिल इंटेलिजेंस (AI) की दुनिया में सैम ऑल्टमैन बड़ा नाम हैं। OpenAI कंपनी उनकी ही है और वह उसके CEO हैं। अब वह खुद AI से जुड़ी चीजों से परेशान हो रहे हैं। सैम ऑल्टमैन ने सार्वजनिक तौर पर इस बात को माना है कि AI एजेंट्स अब दिक्कत दे रहगे हैं। यही वजह है कि वह एक ऐसी आदमी को खोज रहे हैं जो 'हेड ऑफ प्रिपेयर्डनेस' होगा। इस आदमी को 5.5 लाख डॉलर यानी लगभग 4.5 करोड़ रुपये सैलरी और एक्विटी भी दी जाएगी। काम यह होगा कि वह AI से जुड़े संभावित खतरों, लोगों की मानसिक सेहत पर पड़ने वाले उनके असर आदि के बारे में पता लगाए और उनके लिए पहले से तैयारी करे।
सैम ऑल्टमैन का कहना है कि कई AI मॉडल कई बेहतरीन काम कर सकते हैं लेकिन कुछ दिक्कतें भी पैदा कर रहे हैं। इतनी बड़ी कंपनी के CEO का ऐसी बातें सार्वजनिक तौर पर बोलना यह दर्शा रहा है कि साइबर खतरों और मेंटल हेल्थ पर उनका असर आने वाले समय में कितनी बड़ी समस्या बन सकता है। दरअसल, OpenAI समेत तमाम कंपनियों को इस बात की चिंता सता रही है कि आने वाले वक्त में उनके सामने साइबर अटैक, बायो अटैक और अन्य तरह के खतरे आ सकते हैं। इसी के चलते ये कंपनियां तैयारी कर रही हैं कि ताकि ऐसे खतरों से बचा जा सके।
यह भी पढ़ें- Netflix, Amazon Prime और Youtube में सबसे ज्यादा क्या देखते हैं लोग?
AI Agents क्या हैं?
सुनने में यह भले ऐसा लगे कि कोई आदमी AI एजेंट होगा लेकिन असल में यह सिर्फ एक सिस्टम है। सिस्टम यानी हार्डवेयर, सॉफ्टवेयर से मिलकर बना ऐसा तामझाम जो आर्टिफिशिल इंटेलिजेंस से जुड़ा काम करता है। उदाहरण के लिए- अगर आप किसी एक टूल से इमेज बनवाते हैं तो पर्दे के पीछे कई सारे काम होते हैं। इन सारे काम को एक वर्कफ्लो में लाने और काम करवाने की जिम्मेदारी इसी AI एजेंट की होती है। कंप्यूटर या यूं कहें कि टेक्नॉलजी की भाषा में इस व्यवस्था को ही AI एजेंट कहा जाता है।
एक और उदाहरण से समझिए। मान लीजिए एक टूल है जो किसी भी यूजर के कहने पर वीडियो बनाकर देता है। अब वीडियो बनाने के लिए तस्वीरें बनाने, उन्हें एडिट करने, वीडियो जेनरेट करने, उन्हें एडिट करने, म्यूजिक लगाने, फिल्टर लगाने जैसे कामों की जरूरत होगी। किसी एक टूल के लिए ये सारे काम करना संभव नहीं होता है। ऐसे में AI एजेंट कई सारे टूल्स को आपस में कनेक्ट करके वर्कफ्लो बनाते हैं। यानी वे बताते हैं कि किस टूल को कैसे, कितना और क्या काम करना है।
यह भी पढ़ें- ChatGPT ने मर्डर और सुसाइड के लिए कैसे उकसाया? केस हुआ दायर
जब आप कोई प्रॉम्प्ट देते हैं तो AI एजेंट उसे मशीनी भाषा में डिकोड करते हैं और आपकी जरूरत के हिसाब से अलग-अलग टूल को उनका काम बांट देते हैं। जब ये टूल अपना काम कर लेते हैं तो यही AI एजेंट सारे टूल के काम को एकसाथ लाते हैं और एंड प्रोडक्ट तैयार करके आपके सामने रख देते हैं। यही वजह है कि टूल्स को मिलाकर बनाए गए इन AI एजेंट्स को पहले ट्रेन किया जाता है ताकि वे काम करने का तरीका समझ सकें और आगे चलकर इसी दिशा में काम करते रहें।
ट्रेनिंग देने पर ये टूल्स इतना याद कर लेते हैं कि किस स्थिति में कैसे और क्या जवाब देना है। अब क्योंकि ये एजेंट ट्रेन किए गए होते हैं और ज्यादातर काम पहले की गई चीजों के अनुभवों या यूजर के दिए गए निर्देशों के मुताबिक काम करते हैं तो इनमें फैसला लेने की जो क्षमता होती है, कई बार वही गड़बड़ हो जाती है।
AI एजेंट्स से क्या खतरा हो सकता है?
जितनी बड़ी AI कंपनी, उतना ज्यादा डेटा, उतनी ज्यादा प्रोसेसिंग और उतना ही ज्यादा दबाव। जो बड़ी समस्याएं बीते कुछ सालों में देखने को मिली हैं, उनमें तकनीकी की एक सीमा होना, नैतिकता से जुड़ी चीजों को समझ न पाना और सामाजिक मूल्यों के हिसाब से फैसले न ले पाना आदि है। उदाहरण के लिए, सामने वाला व्यक्ति किस भाव से किसी बात को कह रहा है, यह इंसान बेहतर समझ सकते हैं और उसे इसी तरह से डील कर सकते हैं। AI एजेंट्स कमांड्स को सीधे-सीधे समझते हैं और भाव को पकड़ने में अक्सर फेल हो जाते हैं। ऐसे में इसी के जरिए साइबर अपराधी भी AI एजेंट्स का दुरुपयोग कर सकते हैं।
यह भी पढ़ें- बच्चों को कैसे बीमार कर रहा है सोशल मीडिया? ऑस्ट्रेलिया जैसा कानून इसलिए जरूरी
AI एजेंट्स खुद सॉफ्टवेटर ही हैं तो हैकिंग और तकनीकी से जुड़े सारे खतरे तो मान लीजिए कि तोहफे में ही आते हैं। यही जरूरत है कि AI कंपनियां अब AI एजेंट्स और मॉडल्स को ट्रेन करते समय इंसानी और भावनात्मक पहलू पर भी जोर दे रही हैं। इंसानों को अपनी सीमा पता होती है लेकिन मशीन ऐसे फैसले करने में कई बार चूक सकती है। ऐसे में AI एजेंट्स से इस तरह की गलतियां होने के चांस भी काफी ज्यादा हैं और बड़ी कंपनियां भी इससे परेशान हैं।
