Technology

AI की आड़ में ‘फिल्मी हीरो’ बना ठग, महिला को प्यार में फंसाकर 11 लाख की चपत

  • May 16, 2025
  • 0

आज की डिजिटल दुनिया में टेक्नोलॉजी जितनी तेजी से आगे बढ़ रही है, उतने ही खतरनाक तरीके भी सामने आ रहे हैं, जिनसे साइबर अपराधी आम लोगों को

AI की आड़ में ‘फिल्मी हीरो’ बना ठग, महिला को प्यार में फंसाकर 11 लाख की चपत

आज की डिजिटल दुनिया में टेक्नोलॉजी जितनी तेजी से आगे बढ़ रही है, उतने ही खतरनाक तरीके भी सामने आ रहे हैं, जिनसे साइबर अपराधी आम लोगों को शिकार बना रहे हैं। अब धोखाधड़ी केवल फर्जी कॉल्स, ईमेल या एसएमएस तक सीमित नहीं रह गई है। अब यह अपराध एक नई ऊंचाई पर पहुंच चुका है, जहां Artificial Intelligence (AI) को हथियार बनाकर लोगों के साथ भावनात्मक और आर्थिक ठगी की जा रही है।

एक हालिया मामला अर्जेंटीना से सामने आया है, जिसने यह साबित कर दिया कि AI का गलत इस्तेमाल कितना खतरनाक रूप ले सकता है। इसमें ठगों ने न केवल तकनीक का इस्तेमाल किया, बल्कि मानव भावनाओं को निशाना बनाकर एक महिला को करीब 11.3 लाख रुपये की चपत लगा दी। ये घटना जितनी चौंकाने वाली है, उतनी ही गंभीर भी।

कैसे हुआ AI से प्यार और फिर धोखा?

यह घटना एक अकेली महिला के साथ घटी, जो सोशल मीडिया पर एक्टिव रहती थीं। उन्होंने फेसबुक पर एक ऐसा अकाउंट देखा, जो खुद को हॉलीवुड अभिनेता जॉर्ज क्लूनी बताता था। शुरुआत में यह उन्हें एक फैन पेज जैसा ही लगा, लेकिन धीरे-धीरे जब उन्होंने अकाउंट की प्रोफाइल, तस्वीरें और वीडियो देखे, तो सब कुछ इतना असली और विश्वसनीय लगा कि उन्होंने उस व्यक्ति से बातचीत शुरू कर दी।

फेसबुक चैट के दौरान महिला को यह यकीन हो गया कि वह वाकई जॉर्ज क्लूनी से बात कर रही हैं। बातचीत का सिलसिला लगभग छह हफ्ते तक चला। इस दौरान महिला को कई वीडियो भी भेजे गए, जिनमें ‘क्लूनी’ मुस्कुराते हुए, बात करते हुए, आंखें झपकाते हुए और प्यार भरे इशारे करते नजर आया। यह सब कुछ इतना स्वाभाविक लगा कि महिला को एक बार भी संदेह नहीं हुआ।

AI और डीपफेक ने रची ठगी की स्क्रिप्ट

दरअसल, जिस वीडियो और प्रोफाइल ने महिला को यकीन दिलाया कि वह एक फिल्मी हीरो से बात कर रही हैं, वो सब AI और Deepfake तकनीक का नतीजा था। इस तकनीक से जॉर्ज क्लूनी का चेहरा, आवाज और भाव-भंगिमाएं हूबहू कॉपी की गईं। ठगों ने इंटरनेट से उनकी पब्लिक फोटोज, वीडियो और इंटरव्यू का डेटा जुटाया और उसे AI टूल्स के ज़रिए एक नकली लेकिन असली दिखने वाला वर्चुअल जॉर्ज क्लूनी बना दिया।

Deepfake तकनीक इतनी परिष्कृत हो चुकी है कि अब यह किसी भी इंसान की शक्ल और आवाज को हूबहू नक़ल कर सकती है – और वो भी इस तरह कि असली और नकली में फर्क करना आम इंसान के लिए लगभग असंभव हो जाता है।

प्यार का जाल और फिर फाइनेंशियल फ्रॉड

जैसे-जैसे चैट आगे बढ़ी, महिला और ‘क्लूनी’ के बीच भावनात्मक रिश्ता बनने लगा। ‘क्लूनी’ ने महिला को बताया कि वह अपनी पत्नी से तलाक लेने जा रहा है और महिला के साथ एक नई शुरुआत करना चाहता है। भावनाओं का यह खेल बारीकी से रचा गया था, ताकि महिला का भरोसा पूरी तरह जीत लिया जाए।

कुछ ही दिनों बाद ‘क्लूनी’ ने एक बहाना बनाकर महिला से पैसे मांगना शुरू किया। उसने कहा कि वह एक फैन क्लब का मेंबर है लेकिन उसका कार्ड काम नहीं कर रहा है। उसे कुछ पैसे चाहिए ताकि वह अपनी समस्याएं सुलझा सके। साथ ही उसने यह भी वादा किया कि वह महिला को बाद में पैसे लौटा देगा और एक बड़ी कंपनी में नौकरी भी दिलवाएगा।

भावनात्मक रूप से जुड़ चुकी महिला को यह बात सही लगी और उन्होंने बिना ज्यादा जांच-पड़ताल किए ठगों द्वारा बताए गए बैंक अकाउंट में करीब 10,000 पाउंड (लगभग 11.3 लाख रुपये) ट्रांसफर कर दिए। पैसे ट्रांसफर होते ही ‘क्लूनी’ की बातचीत में ठंडापन आ गया और कुछ दिनों बाद उसका अकाउंट ही गायब हो गया।

ये पहली घटना नहीं है…

AI और Deepfake के जरिए ठगी का यह पहला मामला नहीं है। इससे पहले जनवरी 2025 में फ्रांस में एक महिला के साथ भी ऐसी ही घटना घटी थी। उस केस में ठगों ने खुद को ब्रैड पिट बताया था और महिला से करीब 7.9 करोड़ रुपये की ठगी की थी। उस मामले में भी Deepfake वीडियो और नकली प्रोफाइल्स का इस्तेमाल हुआ था।

क्या है Deepfake तकनीक?

Deepfake एक अत्याधुनिक AI आधारित तकनीक है, जो मशीन लर्निंग और कंप्यूटर विजन के जरिए किसी व्यक्ति के चेहरे, आवाज और भाव-भंगिमाओं को इस तरह से कॉपी करती है कि नकली वीडियो असली जैसा ही नजर आता है। इस तकनीक से न केवल किसी की शक्ल बदली जा सकती है, बल्कि किसी की भी आवाज को हूबहू दोहराया जा सकता है।

फिल्मी सितारों और सेलिब्रिटीज़ के मामले में यह काम और भी आसान हो जाता है क्योंकि उनके हजारों फोटो और वीडियो इंटरनेट पर मौजूद होते हैं। AI इन्हीं डेटा को सीखकर एक नकली लेकिन विश्वसनीय वीडियो बना सकता है।

एक्सपर्ट्स क्या कहते हैं?

तकनीकी विशेषज्ञों का मानना है कि यह तो सिर्फ शुरुआत है। आने वाले समय में Deepfake और AI का दुरुपयोग और ज्यादा बढ़ सकता है। यह सिर्फ सेलिब्रिटीज़ तक सीमित नहीं रहेगा, बल्कि आम लोग भी इसका निशाना बन सकते हैं। सोशल मीडिया के ज़रिए किसी का भी चेहरा, आवाज या स्टाइल कॉपी करना अब मुश्किल नहीं रह गया है।

विशेषज्ञ यह भी चेतावनी देते हैं कि जैसे-जैसे तकनीक आगे बढ़ेगी, इसे पकड़ पाना और भी मुश्किल होगा। हमें तकनीक के साथ-साथ साइबर जागरूकता भी बढ़ानी होगी।

क्या करें ताकि ऐसे जाल में न फंसे?

इन तकनीकी ठगों से बचने के लिए कुछ आसान लेकिन महत्वपूर्ण सावधानियां रखनी जरूरी हैं:

  1. सोशल मीडिया पर किसी भी प्रोफाइल पर तुरंत भरोसा न करें, चाहे वह कितना भी असली क्यों न लगे।
  2. अगर कोई व्यक्ति वीडियो कॉल या चैट में ज्यादा अच्छा और परफेक्ट लगे, तो सतर्क हो जाएं। जरूरी नहीं कि वह असली ही हो।
  3. कभी भी किसी अनजान व्यक्ति को पैसे ट्रांसफर न करें, चाहे वह कितना भी भरोसेमंद क्यों न दिखे।
  4. किसी भी ऑनलाइन रिश्ते को पर्सनल, भावनात्मक और वित्तीय लेवल पर ले जाने से पहले पूरी जांच-पड़ताल करें।
  5. वीडियो देखकर विश्वास करने का दौर अब खत्म हो चुका है। अब ‘देखा वही सच है’ वाली सोच को बदलना होगा।
  6. किसी भी संदिग्ध गतिविधि की जानकारी तुरंत साइबर क्राइम सेल या हेल्पलाइन 1930 पर दें।

निष्कर्ष

AI और Deepfake तकनीक का सही इस्तेमाल जहां दुनिया को आगे ले जा सकता है, वहीं इसका गलत उपयोग बेहद खतरनाक साबित हो रहा है। अर्जेंटीना की यह घटना न केवल एक महिला की आर्थिक क्षति की कहानी है, बल्कि यह एक चेतावनी है कि हमें तकनीक के अंधविश्वास से बचना होगा।

अब समय आ गया है कि हम आंख मूंदकर किसी ऑनलाइन रिश्ते पर भरोसा न करें। यह ज़रूरी है कि हम डिजिटल दुनिया में समझदारी और सतर्कता के साथ कदम बढ़ाएं। वरना कभी AI ‘हॉलीवुड हीरो’ बनकर हमारे जज़्बातों से खेल जाएगा, और कभी कोई फर्जी ‘दोस्त’ हमारी मेहनत की कमाई हड़प लेगा।

ये भी पढ़ें – Google Maps की इन रंगीन लाइनों का क्या है राज़? क्या बताती है हर लाइन

Leave a Reply

Your email address will not be published. Required fields are marked *