Advertisment

भारत में बढ़ रहा Deepfake scam, जानें सुरक्षा के लिए जरूरी टिप्स

डीपफेक तकनीक ने भारत में फर्जी खबरें और धोखाधड़ी को बढ़ावा दिया है, जिससे लोग प्रभावित हो रहे हैं। आइए समझते हैं कि AI और डीपफेक के खतरे क्या हैं ? कैसे हमें सावधान रहना है...

author-image
Ajit Kumar Pandey
AI DEEPFAKE SCAM

AI DEEPFAKE IN INDAI

नई दिल्ली, वाईबीएन नेटवर्क ।

तहलका मचाने वाली टेक्नोलॉजी एआई और डीपफेक ने तकनीक की दुनिया में हलचल मचा रखा है। युवा इस तकनीक को सबसे अधिक रिसर्च और अनुभव को सोशल मीडिया पर साझा कर रहा है। हालांकि इस तकनीक ने फायदे भी बहुत पहुंचाए हैं। मगर, इसका दूसरा पक्ष वाकई बहुत की अंधेरा है। आइए समझते हैं कि AI और डीपफेक के खतरे क्या हैं ?, फेक न्यूज और डीपफेक वीडियो की पहचान कैसे करें ? सुरक्षा के लिए जरूरी टिप्स क्या हैं ? कैसे हमें सावधान रहना है...

आर्टिफिशियल इंटेलिजेंस (AI) और डीपफेक टेक्नोलॉजी से डीपफेक वीडियो, AI-जनरेटेड स्कैम, फेक न्यूज और सोशल मीडिया पर धोखाधड़ी के मामले तेजी से बढ़ रहे हैं। भारत में भी डीपफेक से जुड़े कई मामले सामने आ चुके हैं, जिसमें सरकारी अधिकारियों, सेलिब्रिटीज और आम लोगों को निशाना बनाया गया है।

भारत में डीपफेक के मामले और कानूनी कार्रवाई

1. AI और डीपफेक टेक्नोलॉजी के खतरे

डीपफेक (Deepfake) एक ऐसी तकनीक है जो AI का इस्तेमाल करके किसी के चेहरे या आवाज को किसी और के वीडियो में डाल देती है। इसका इस्तेमाल:

  • फर्जी खबरें फैलाने
  • सेलिब्रिटीज की नकली वीडियोज बनाने
  • फिशिंग स्कैम और वित्तीय धोखाधड़ी
  • राजनीतिक प्रोपेगेंडा फैलाने के लिए किया जा रहा है।

कुछ चौंकाने वाले उदाहरण

Advertisment

2023 में, एक डीपफेक वीडियो वायरल हुआ जिसमें एक न्यूज एंकर को गलत खबरें फैलाते हुए दिखाया गया।

  • कई मामलों में महिलाओं के चेहरे अश्लील वीडियोज में डाल दिए गए।
  • AI आवाज क्लोनिंग के जरिए लोगों को फोन करके पैसे ऐंठे जा रहे हैं।

2. फेक न्यूज और डीपफेक वीडियो की पहचान कैसे करें ?

डीपफेक को पहचानना मुश्किल होता जा रहा है, लेकिन कुछ संकेतों से आप इसकी पहचान कर सकते हैं...

🔍 डीपफेक वीडियो की पहचान

Advertisment
  • चेहरे की मूवमेंट अजीब लगे (जैसे आंखें ब्लिंक न करना या होंठ सिंक में न होना)।
  • स्किन टोन में अनियमितताएं (चेहरे और गर्दन के रंग में अंतर)।
  • बैकग्राउंड में धुंधलापन या डिस्टॉर्शन।
  • आवाज और मुंह की मूवमेंट मैच न करना।

📰 फेक न्यूज की पहचान

  • स्रोत (Source) चेक करें: क्या यह विश्वसनीय वेबसाइट से आया है?
  • हेडलाइन को गूगल पर सर्च करें – क्या दूसरे न्यूज चैनल्स ने भी यही खबर दी है?
  • फोटो रिवर्स सर्च करें (Google Images पर)।
  • ग्रामर और स्पेलिंग मिस्टेक्स पर ध्यान दें।

3. सुरक्षा के लिए जरूरी टिप्स

अगर आप AI और डीपफेक के खतरों से बचना चाहते हैं, तो ये टिप्स फॉलो करें...

🔒 ऑनलाइन सुरक्षा के उपाय

Advertisment

✔ सोशल मीडिया पर पर्सनल फोटोज शेयर करने से बचें।
✔ टू-फैक्टर ऑथेंटिकेशन (2FA) चालू करें।
✔ अजीब लिंक्स या अटैचमेंट्स पर क्लिक न करें।
✔ AI जनरेटेड कॉल्स पर संदेह करें (अगर कोई रिश्तेदार पैसे मांगे, तो सीधे कॉल करके पुष्टि करें)।

📢 अगर आप डीपफेक का शिकार हो जाएं तो क्या करें ?

  • वीडियो/फोटो को रिपोर्ट करें (सोशल मीडिया प्लेटफॉर्म्स पर)।
  • साइबर सेल में शिकायत दर्ज करें (https://cybercrime.gov.in)।
  • कानूनी सलाह लें (IT Act, 2000 के तहत कार्रवाई हो सकती है)।

4. भारत में डीपफेक के मामले और कार्रवाई

भारत में डीपफेक तकनीक का दुरुपयोग बढ़ रहा है। कुछ प्रमुख मामले...

📌 केस 1: राश्मिका मंदाना का डीपफेक वीडियो (2023)

  • एक एक्ट्रेस के चेहरे को एक अश्लील वीडियो में डाला गया।
  • कार्रवाई: सोशल मीडिया प्लेटफॉर्म्स ने वीडियो हटाया, लेकिन आरोपी पकड़ा नहीं गया।

📌 केस 2: AI आवाज क्लोनिंग स्कैम (2024)

  • हैदराबाद में एक व्यक्ति ने AI का इस्तेमाल करके किसी के रिश्तेदार की आवाज कॉपी की और ₹50,000 ऐंठे।
  • कार्रवाई: साइबर पुलिस ने आरोपी को गिरफ्तार किया।

📌 केस 3: नेताओं के फर्जी भाषण (2024)

  • कुछ राजनीतिक नेताओं के डीपफेक वीडियो वायरल हुए, जिसमें उन्हें गलत बयान देते हुए दिखाया गया।
  • कार्रवाई: इलेक्शन कमिशन ने सोशल मीडिया कंपनियों को चेतावनी दी।

भारत में डीपफेक के खिलाफ कानून

  • IT Act, 2000 (धारा 66E, 67, 67A) – प्राइवेसी उल्लंघन और अश्लीलता के लिए सजा।
  • IPC धारा 500 (मानहानि) – फर्जी वीडियो बनाने वालों पर केस।
  • सरकार ने नए AI रेगुलेशन्स पर काम शुरू किया है।

AI का सही इस्तेमाल करें, सतर्क रहें

AI और डीपफेक टेक्नोलॉजी अगर सही हाथों में हो, तो फायदेमंद है, लेकिन गलत इस्तेमाल से यह समाज के लिए खतरा बन सकती है। फेक कंटेंट को पहचानें, शेयर करने से पहले सत्यापन करें और साइबर क्राइम की शिकायत करने में न हिचकिचाएं।

अगर आपको यह जानकारी उपयोगी लगी हो, तो इसे शेयर करें ताकि और लोग जागरूक हो सकें!

deepfake AI
Advertisment
Advertisment