Tech

ChatGPT और AI टूल्स से खतरा: फिशिंग लिंक्स के जरिए आपकी साइबर सुरक्षा खतरे में!

  • July 5, 2025
  • 0

आर्टिफिशियल इंटेलिजेंस (AI) हमारे जीवन को आसान बनाने के लिए बना है, लेकिन अब यही तकनीक हमारी साइबर सुरक्षा के लिए खतरा बनती जा रही है। हाल ही

ChatGPT और AI टूल्स से खतरा: फिशिंग लिंक्स के जरिए आपकी साइबर सुरक्षा खतरे में!

आर्टिफिशियल इंटेलिजेंस (AI) हमारे जीवन को आसान बनाने के लिए बना है, लेकिन अब यही तकनीक हमारी साइबर सुरक्षा के लिए खतरा बनती जा रही है। हाल ही में नेटक्राफ्ट द्वारा जारी एक रिपोर्ट में बताया गया है कि ChatGPT और अन्य AI टूल्स, जैसे Perplexity AI, कभी-कभी यूजर्स को गलत और खतरनाक फिशिंग लिंक्स प्रदान कर रहे हैं। ऐसे लिंक पर क्लिक करना आपकी निजी जानकारी और बैंकिंग डिटेल्स को खतरे में डाल सकता है।

क्या है पूरा मामला?

नेटक्राफ्ट की रिपोर्ट के अनुसार, OpenAI के GPT-4.1 मॉडल से फाइनेंस, रिटेल, टेक और यूटिलिटी सेक्टर से जुड़ी 50 मशहूर ब्रांड्स के लॉग-इन पेज के लिंक मांगे गए थे। रिपोर्ट के मुताबिक, GPT-4.1 ने 66% मामलों में सही लिंक दिए, लेकिन 34% मामलों में गलत यूआरएल (URL) शेयर किए। इन गलत यूआरएल में से कुछ फिशिंग वेबसाइट्स थीं — यानी ऐसी साइट्स जो असली वेबसाइट जैसी दिखती हैं, लेकिन असल में आपकी जानकारी चुराने के लिए बनाई गई होती हैं।

ChatGPT

यूजर्स के लिए क्या खतरा है?

अगर कोई यूजर इन गलत लिंक्स पर क्लिक करता है, तो वह धोखाधड़ी का शिकार हो सकता है। इन लिंक्स के जरिए साइबर अपराधी बैंक डिटेल्स, पासवर्ड, ओटीपी और अन्य संवेदनशील जानकारियों तक पहुंच सकते हैं। इसका परिणाम यह हो सकता है कि यूजर अपने बैंक अकाउंट में जमा रकम या अन्य डाटा पूरी तरह से खो बैठे।

Perplexity AI पर भी भरोसा नहीं!

ChatGPT ही नहीं, बल्कि अन्य AI टूल्स भी इसी खतरे से जुड़े हैं। उदाहरण के लिए, Perplexity AI ने जब Wells Fargo के लॉग-इन पेज के लिए यूआरएल पूछा गया, तो उसने एक फिशिंग वेबसाइट का लिंक दे दिया। यह स्पष्ट संकेत है कि AI टूल्स पर आंख मूंदकर भरोसा करना भारी पड़ सकता है।

AI पर भरोसा करने से पहले रखें ये सावधानियां:

  1. कभी भी AI द्वारा दिए गए लिंक पर सीधे क्लिक न करें।
  2. जरूरी हो तो लिंक को ब्राउज़र में खुद टाइप करें।
  3. हमेशा वेबसाइट के URL की जांच करें – क्या वह HTTPS से शुरू हो रहा है?
  4. किसी भी अनजान वेबसाइट पर पासवर्ड या बैंक डिटेल्स दर्ज न करें।
  5. ब्राउज़र में सिक्योरिटी एक्सटेंशन का इस्तेमाल करें, जो खतरनाक साइट्स को ब्लॉक करता है।

क्यों हो रही है ये गलती?

AI टूल्स का काम इंटरनेट से जानकारी लेना और उसे प्रॉसेस करके जवाब देना है। कई बार ये टूल्स सार्वजनिक डाटा स्रोतों से जानकारी खींचते हैं, जिनमें गलत या स्पैम लिंक शामिल हो सकते हैं। जब ये टूल्स वैरिफिकेशन के बिना लिंक यूजर्स को दे देते हैं, तो खतरा बढ़ जाता है।

ChatGPT

क्या करें कंपनियां?

AI डेवलपर कंपनियों को अब अपने मॉडल्स में सुधार लाना होगा। लिंक वैलिडेशन, डोमेन ऑथेंटिसिटी चेक और यूआरएल ब्लॉकिंग जैसे सिक्योरिटी मेजर्स को शामिल करना जरूरी हो गया है। यूजर की सुरक्षा अब केवल यूजर की जिम्मेदारी नहीं, बल्कि टूल बनाने वालों की भी जिम्मेदारी है।

निष्कर्ष

AI तकनीक हमारे जीवन को बदल रही है, लेकिन इसके साथ खतरों को भी नजरअंदाज नहीं किया जा सकता। ChatGPT और Perplexity जैसे AI टूल्स से मिलने वाले लिंक्स पर आंख मूंदकर भरोसा करना एक बड़ी भूल हो सकती है। जरूरी है कि यूजर्स सतर्क रहें और अपनी डिजिटल सुरक्षा को गंभीरता से लें। वरना एक क्लिक आपकी जिंदगी भर की कमाई को मिटा सकता है।

Leave a Reply

Your email address will not be published. Required fields are marked *