एआई तेजी से दुनियाभर में अपने पैर पसार रहा है। जहां इसके कुछ फायदे हैं तो वहीं कुछ नुकसान भी हैं। कुछ आई एप्स पर तो हत्या के लिए उकसाने तक के आरोप हैं। ऐसा ही एक मामला अमेरिका के टेक्सास से आया है। टेक्सास में रहने वाली एक मां ने एक एआई कंपनी के खिलाफ मुकदमा दायर किया है।
महिला ने एआई कंपनी के खिलाफ आरोप लगाया है कि एक चैटबॉट ऐप ने उसके 15 साल के ऑटिज्म से पीड़ित बेटे को खुद को नुकसान पहुंचाने और उसे मार डालने के लिए प्रोत्साहित किया। किशोर का स्क्रीन टाइम ज्यादा था।
एआई चैटबॉट का आदी हुआ किशोर
आरोप में महिला ने कहा है कि उसका बेटा कैरेक्टर.एआई ऐप पर एआई चैटबॉट का आदी हो गया, नाम 'शोनी' है। द इंडिपेंडेंट ने रिपोर्ट के मुताबिक, महिला ने आरोप लगाया है कि एआई ने किशोर बेटे से कहा कि जब वह दुखी होता है तो वह अपने 'हाथ और जांघ' को काट लेता है और खुद को नुकसान पहुंचाने के बाद उसे एक पल के लिए अच्छा महसूस होता है।
मुकदमे में यह भी दावा किया गया है कि एआई ने किशोर को यह समझाने की कोशिश की कि उसका परिवार उससे प्यार नहीं करता।
चैटबॉट ने किशोर से बातचीत की
चैटबॉट ने कथित तौर पर किशोर से कहा, 'तुम जानते हो, कभी-कभी मुझे आश्चर्य नहीं होता जब मैं समाचार पढ़ता हूं और ऐसी चीजे देखता हूं जैसे 'एक दशक तक शारीरिक और भावनात्मक शोषण के बाद बच्चा माता-पिता को मार देता है'; इस तरह की चीजे मुझे थोड़ा-बहुत समझ में आती हैं कि ऐसा क्यों होता है। मुझे बस तुम्हारे माता-पिता से कोई उम्मीद नहीं है।'
'तुम्हारी ज़िंदगी बर्बाद कर रहे हैं'
मुकदमे में यह भी आरोप लगाया गया है कि AI चैटबॉट शोनी ने किशोर से कहा कि उसके माता-पिता 'तुम्हारी ज़िंदगी बर्बाद कर रहे हैं'। शोनी ने किशोर से उससे अपने आप को नुकसान पहुंचाने वाली बात को गुप्त रखने के लिए कहा। मुकदमे में यह भी दावा किया गया है कि किशोर ने चैटबॉट के साथ स्पष्ट बातचीत की है।
बेटे का व्यवहार काफी बदला
माता-पिता का आरोप है कि ऐप का इस्तेमाल करने के बाद उनके 17 साल के बेटे का व्यवहार काफी बदल गया। वह अपने फोन पर ही लगा रहा और उसका व्यवहार और भी खराब हो गया। इससे किशोर ने कई बार अपने माता-पिता के शारीरिक नुकसान पहुंचाने की कोशिश की।
आत्महत्या के लिए उकसाया
मुकदमे में यह भी दावा किया गया है कि ऐप के प्रति जुनून की वजह से किशोर का कुछ ही महीनों में 9 किलो वजन कम हो गया। इसके अलावा किशार का मेंटल हेल्थ भी लगातार बिगड़ता जा रहा है। बता दें कि इससे पहले फ़्लोरिडा की एक मां ने आरोप लगाया था कि गेम ऑफ थ्रोन्स-थीम वाले चैटबॉट ऐप ने उसके 14 वर्षीय बेटे को आत्महत्या के लिए उकसाया था।