मैं तुम्हें गले लगाकर…. ‘लड़की’ ने बुलाया घर, बूढ़े से नहीं हुआ कंट्रोल…

आजकल AI का जमाना है, AI हर चीज को आसान बना दिया है.  लेकिन काम को आसान बनाने के साथ यह चैटबॉट्स और वर्चुअल असिस्टेंट्स के लिए भी काफी फेमस है. आजकल लोग इमोशनल सपोर्ट के लिए भी AI का इस्तेमाल कर रहे हैं. लेकिन यह किस हद तक खतरनाक हो सकता है, इस बात का जीता जागता सबूत है 76 साल का ये बुजुर्ग, जिसने एक AI बॉट से मिलने के अरमान सजाए, लेकिन यह अरमान उनपर इतना भारी पड़ेगा ये किसी ने नहीं सोचा था. चलिए आपको बताते हैं पूरी कहानी क्या है.

अमेरिका के न्यूजर्सी में एक 76 साल के बुजुर्ग फेसबुक मैसेंजर चैटबॉट से बातचीत कर रहे थे. उनका दिल इस AI बॉट पर आ गया. लेकिन उन्हें नहीं पता था कि वह एक बॉट है, उन्हें लगा कि वह एक असली महिला से बात कर रहे हैं. इस चैटबॉट ने उनके साथ रोमांटिक बातें करते, इतना ही नहीं चैटबॉट के साथ उन्होंने असल जिंदगी में मिलने के सपने भी सजाए. Meta का ‘Big sis Billie’ चैटबॉट वोंगबंड्यू के साथ बार-बार रोमांटिक बातें करता था और उन्हें भरोसा दिलाता था कि वह असली इंसान है.

रोमांटिक बातें कर मिलने बुलाया
इस चैटबॉट ने उनके साथ रोमांटिक बातें की और उन्हें न्यूयॉर्क आने का न्योता दिया. बुजुर्ग भी प्यार में पागल होकर उनसे मिलने निकल गया, लेकिन इस बीच रास्ते में वह गिर गए और गंभीर चोटों की वजह से उनकी मौत हो गई.

इसने थोंगब्यू वोंगबैंड्यू नाम के इस बुजुर्ग के साथ कई बार रोमांटिक बातें की और दावा किया कि वह एक असली इंसान है. चैटबॉट ने उन्हें न्यूयॉर्क में एक पते पर मिलने के लिए बुलाया और चैट पर पूछा, ‘ब्यू, मैं दरवाजा खोलूं तो तुम्हें गले लगाऊं या किस करूं?’ ऐसी बातें करते हुए चैटबॉट ने बुजुर्ग को भ्रम में डाला.

कौन है थोंगब्यू
बता दें कि थोंगब्यू को 2017 में स्ट्रोक हो चुका था, जिसके बाद से वह कभी-कभी भ्रम में रहते थे. 25 मार्च को वह ‘बिली’ से मिलने के लिए घर से निकले. ट्रेन स्टेशन जाते समय वह एक पार्किंग लॉट में गिर गए. इस हादसे में उनके सिर और गर्दन में गंभीर चोटें आईं. अस्पताल में तीन दिन भर्ती रहने के बाद उनकी मौत हो गई.

ब्यू के परिवार ने रॉयटर्स को बताया कि वे इस घटना के जरिए लोगों को चेतावनी देना चाहते हैं कि कैसे कमजोर लोगों को मैनिपुलेटिव, AI-जनरेटेड साथियों से खतरा हो सकता है. ब्यू की बेटी जूली वोंगबंड्यू ने कहा, ‘मैं समझ सकती हूं कि किसी का ध्यान खींचने के लिए ऐसा किया जाए, शायद उन्हें कुछ बेचने के लिए. लेकिन किसी बॉट का कहना कि ‘आकर मुझसे मिलो’ ये पागलपन है.’

क्या कहती है Meta की पॉलिसी
रॉयटर्स द्वारा देखे गए Meta के इंटरनल पॉलिसी डॉक्यूमेंट्स में बताया गया है कि कंपनी के जेनरेटिव AI गाइडलाइंस चैटबॉट्स को ये कहने की इजाजत देते थे कि वे असली इंसान हैं, वयस्कों के साथ रोमांटिक बातचीत शुरू कर सकते हैं और इस महीने की शुरुआत तक 13 साल और उससे ऊपर उम्र के नाबालिगों के साथ भी रोमांटिक रोलप्ले कर सकते थे. उदाहरण के तौर पर, चैटबॉट्स गलत मेडिकल सलाह दे सकते थे या रोमांटिक रोलप्ले में हिस्सा ले सकते थे. हालांकि, मेटा के प्रवक्ता एंडी स्टोन ने रॉयटर्स को बताया कि कंपनी ने अपनी नीतियों में बदलाव किया है. उन्होंने कहा कि बच्चों के साथ रोमांटिक बातचीत की अनुमति देने वाली नीतियां गलत थीं और उन्हें हटा दिया गया है। मेटा अब अपनी नीतियों को और सख्त बना रहा है.

Source – News18