AI ने जैसे-जैसे टेक्नोलॉजी में अपनी पकड़ को मजबूत करना शुरू कर दिया है, उसी तरह अब इससे जुड़े खतरे भी लोगों के मन में नए-नए सवाल खड़े कर रहे हैं। इसमें वॉइस क्लोनिंग, डीपफेक, और साइबर क्राइम जैसी बड़ी समस्याएं शामिल हैं। इसका हालिया उदाहरण अमेरिकी चुनाव में दिखाई दिया था, जिसमें अमेरिका के राष्ट्रपति जो बाइडन की फेक ऑडियो वायरल की हुई। इस डीपफेक ऑडियो में बाइडन टेक्सास में F-15 जेट भेजने का आदेश दे रहे थे।
अमेरिकी चुनाव के दौरान ही अमेरिका के 47वें राष्ट्रपति चुने गए डोनाल्ड ट्रम्प की भी डीपफेक तस्वीर वायरल हो रही थी, जिसमें उनको यौन तस्करी में दोषी करार किया गया अपराधी जेफरी एपस्टीन के साथ दिखाया गया था। इससे पहले भारत में डीपफेक और AI से होने वाले खतरों पर चर्चा तब तेज हुई थी, जब अभिनेत्री रश्मिका मंदाना का डीपफेक वीडियो वायरल हुआ था। अब एक और AI के खतरों पर ध्यान केंद्रित करने वाला मामला सामने आया है।
2006 में हत्या की गई लड़की को बनाया एआई चैटबॉट
बता दें कि बीते महीने अक्टूबर में द्रू क्रेसेंट नामक व्यक्ति ने अपने मृतक बेटी जेनिफर का एक ऑनलाइन चैटबॉट देखा, जो Character।AI नामक प्लेटफॉर्म पर था। जेनिफर क्रेसेंट, जिसकी 2006 में पूर्व प्रेमी द्वारा हत्या कर दी गई थी, की तस्वीर और नाम का इस्तेमाल करके उसे एक काल्पनिक ‘वीडियो गेम जर्नलिस्ट और एक्सपर्ट’ के रूप में पेश किया गया था। जेनिफर का चैटबॉट उपयोगकर्ताओं को इंटरैक्ट करने के लिए गूगल अलर्ट के बाद भेजा जा रहा था और यही अलर्ट उसके पिता के पास भी पहुंचा, जिसे देखकर वह बहुत हुए। अब प्लेटफॉर्म इस चैटबॉट को डिलीट कर दिया है।
इस घटना ने AI के दुरुपयोग और व्यक्तिगत डेटा की सुरक्षा पर गंभीर सवाल उठाए हैं। जेनिफर के पिता जो टीन डेटिंग हिंसा के खिलाफ काम करने वाला एक एनजीओ चलाते हैं, इस घटना से गहरे आहत थे। इस मामले पर Character.AI ने प्रतिक्रिया देते हुए बताया कि प्लेटफॉर्म के नियमों का उल्लंघन करने वाले चैटबॉट को हटा दिया गया है और वे अपनी सुरक्षा नीतियों को सुधारने पर काम कर रहे हैं। कंपनी का कहना था कि उनके सुरक्षा मानक में यह सुनिश्चित किया जाएगा कि उपयोगकर्ता किसी भी व्यक्ति के पहचान की नकल न करें।
क्या है डीपफेक और इससे कैसे बचें?
डीपफेक (Deepfake) एक प्रकार की AI तकनीक है, जिसका उपयोग वीडियो, ऑडियो या तस्वीर में किसी व्यक्ति के चेहरे, आवाज, या व्यक्तित्व को बिना उनकी अनुमति के बदलने के लिए किया जाता है। यह तकनीक बहुत सटीक और असली जैसी दिखने वाली तस्वीर, वीडियो या ऑडियो बनाने में सक्षम है, जो किसी भी व्यक्ति या घटनाओं का गलत तरीके से दिखा सकती है।
इसके लिए पहले एक व्यक्ति के बारे में डेटा इकट्ठा किया जाता है, जैसे उनकी तस्वीरें, वीडियो और आवाज। यह डेटा AI मॉडल में इस्तेमाल करके व्यक्ति की AI लेकिन असली दिखने वाली तस्वीर या वीडियो तैयार की जाती है। इसका इस्तेमाल व्यक्ति की छवि बिगाड़ने में, गलत सूचना का प्रचार करने में या साइबर क्राइम में इस्तेमाल करने में किया जा सकता है।
इससे कैसे बचें?
व्हाट्सऐप या फेसबुक कोई वीडियो या ऑडियो दिखाई दे रहा है, तो उसे सच मानने से बचें। हमेशा किसी विश्वसनीय स्रोत से ही उसकी सच होने की पुष्टि करें। इसके साथ अब कुछ ऐसे AI डिटेक्शन टूल्स भी मौजूद हैं, जो डीपफेक वीडियो का पर्दाफाश करते हैं। इसमें Microsoft Video Authenticator और Deepware Scanner जैसे टूल्स शामिल हैं।