logo

2006 में मर चुकी लड़की को AI ने 'जिंदा' कर दिया? घरवाले डर गए

AI से बढ़ते खतरे बार-बार चर्चा का विषय बनते हैं। जानते हैं कैसे दीपफेक कैसे खतरा बन रहा है और इससे कैसे बचें।

AI image of Girl

AI द्वारा निर्मित लड़की की काल्पनिक तस्वीर। (Pic Credit- Freepik)

AI ने जैसे-जैसे टेक्नोलॉजी में अपनी पकड़ को मजबूत करना शुरू कर दिया है, उसी तरह अब इससे जुड़े खतरे भी लोगों के मन में नए-नए सवाल खड़े कर रहे हैं। इसमें वॉइस क्लोनिंग, डीपफेक, और साइबर क्राइम जैसी बड़ी समस्याएं शामिल हैं। इसका हालिया उदाहरण अमेरिकी चुनाव में दिखाई दिया था, जिसमें अमेरिका के राष्ट्रपति जो बाइडन की फेक ऑडियो वायरल की हुई। इस डीपफेक ऑडियो में बाइडन टेक्सास में F-15 जेट भेजने का आदेश दे रहे थे।

 

अमेरिकी चुनाव के दौरान ही अमेरिका के 47वें राष्ट्रपति चुने गए डोनाल्ड ट्रम्प की भी डीपफेक तस्वीर वायरल हो रही थी, जिसमें उनको यौन तस्करी में दोषी करार किया गया अपराधी जेफरी एपस्टीन के साथ दिखाया गया था। इससे पहले भारत में डीपफेक और AI से होने वाले खतरों पर चर्चा तब तेज हुई थी, जब अभिनेत्री रश्मिका मंदाना का डीपफेक वीडियो वायरल हुआ था। अब एक और AI के खतरों पर ध्यान केंद्रित करने वाला मामला सामने आया है।

2006 में हत्या की गई लड़की को बनाया एआई चैटबॉट

बता दें कि बीते महीने अक्टूबर में द्रू क्रेसेंट नामक व्यक्ति ने अपने मृतक बेटी जेनिफर का एक ऑनलाइन चैटबॉट देखा, जो Character।AI नामक प्लेटफॉर्म पर था। जेनिफर क्रेसेंट, जिसकी 2006 में पूर्व प्रेमी द्वारा हत्या कर दी गई थी, की तस्वीर और नाम का इस्तेमाल करके उसे एक काल्पनिक ‘वीडियो गेम जर्नलिस्ट और एक्सपर्ट’ के रूप में पेश किया गया था। जेनिफर का चैटबॉट उपयोगकर्ताओं को इंटरैक्ट करने के लिए गूगल अलर्ट के बाद भेजा जा रहा था और यही अलर्ट उसके पिता के पास भी पहुंचा, जिसे देखकर वह बहुत हुए। अब प्लेटफॉर्म इस चैटबॉट को डिलीट कर दिया है।

 

इस घटना ने AI के दुरुपयोग और व्यक्तिगत डेटा की सुरक्षा पर गंभीर सवाल उठाए हैं। जेनिफर के पिता जो टीन डेटिंग हिंसा के खिलाफ काम करने वाला एक एनजीओ चलाते हैं, इस घटना से गहरे आहत थे।  इस मामले पर Character.AI ने प्रतिक्रिया देते हुए बताया कि प्लेटफॉर्म के नियमों का उल्लंघन करने वाले चैटबॉट को हटा दिया गया है और वे अपनी सुरक्षा नीतियों को सुधारने पर काम कर रहे हैं। कंपनी का कहना था कि उनके सुरक्षा मानक में यह सुनिश्चित किया जाएगा कि उपयोगकर्ता किसी भी व्यक्ति के पहचान की नकल न करें।

क्या है डीपफेक और इससे कैसे बचें?

डीपफेक (Deepfake) एक प्रकार की AI तकनीक है, जिसका उपयोग वीडियो, ऑडियो या तस्वीर में किसी व्यक्ति के चेहरे, आवाज, या व्यक्तित्व को बिना उनकी अनुमति के बदलने के लिए किया जाता है। यह तकनीक बहुत सटीक और असली जैसी दिखने वाली तस्वीर, वीडियो या ऑडियो बनाने में सक्षम है, जो किसी भी व्यक्ति या घटनाओं का गलत तरीके से दिखा सकती है। 

 

इसके लिए पहले एक व्यक्ति के बारे में डेटा इकट्ठा किया जाता है, जैसे उनकी तस्वीरें, वीडियो और आवाज। यह डेटा AI मॉडल में इस्तेमाल करके व्यक्ति की AI लेकिन असली दिखने वाली तस्वीर या वीडियो तैयार की जाती है। इसका इस्तेमाल व्यक्ति की छवि बिगाड़ने में, गलत सूचना का प्रचार करने में या साइबर क्राइम में इस्तेमाल करने में किया जा सकता है।

इससे कैसे बचें?

व्हाट्सऐप या फेसबुक कोई वीडियो या ऑडियो दिखाई दे रहा है, तो उसे सच मानने से बचें। हमेशा किसी विश्वसनीय स्रोत से ही उसकी सच होने की पुष्टि करें। इसके साथ अब कुछ ऐसे AI डिटेक्शन टूल्स भी मौजूद हैं, जो डीपफेक वीडियो का पर्दाफाश करते हैं। इसमें Microsoft Video Authenticator और Deepware Scanner जैसे टूल्स शामिल हैं।

शेयर करें

संबंधित आलेख


और पढ़ें

हमारे बारे में

श्रेणियाँ

Copyright ©️ TIF MULTIMEDIA PRIVATE LIMITED | All Rights Reserved | Developed By TIF Technologies

CONTACT US | PRIVACY POLICY | TERMS OF USE | Sitemap