Advertisment

भारत में बढ़ रहा Deepfake scam, जानें सुरक्षा के लिए जरूरी टिप्स

डीपफेक तकनीक ने भारत में फर्जी खबरें और धोखाधड़ी को बढ़ावा दिया है, जिससे लोग प्रभावित हो रहे हैं। आइए समझते हैं कि AI और डीपफेक के खतरे क्या हैं ? कैसे हमें सावधान रहना है...

author-image
Ajit Kumar Pandey
AI DEEPFAKE SCAM

AI DEEPFAKE IN INDAI

नई दिल्ली, वाईबीएन नेटवर्क ।

Advertisment

तहलका मचाने वाली टेक्नोलॉजी एआई और डीपफेक ने तकनीक की दुनिया में हलचल मचा रखा है। युवा इस तकनीक को सबसे अधिक रिसर्च और अनुभव को सोशल मीडिया पर साझा कर रहा है। हालांकि इस तकनीक ने फायदे भी बहुत पहुंचाए हैं। मगर, इसका दूसरा पक्ष वाकई बहुत की अंधेरा है। आइए समझते हैं कि AI और डीपफेक के खतरे क्या हैं ?, फेक न्यूज और डीपफेक वीडियो की पहचान कैसे करें ? सुरक्षा के लिए जरूरी टिप्स क्या हैं ? कैसे हमें सावधान रहना है...

आर्टिफिशियल इंटेलिजेंस (AI) और डीपफेक टेक्नोलॉजी से डीपफेक वीडियो, AI-जनरेटेड स्कैम, फेक न्यूज और सोशल मीडिया पर धोखाधड़ी के मामले तेजी से बढ़ रहे हैं। भारत में भी डीपफेक से जुड़े कई मामले सामने आ चुके हैं, जिसमें सरकारी अधिकारियों, सेलिब्रिटीज और आम लोगों को निशाना बनाया गया है।

भारत में डीपफेक के मामले और कानूनी कार्रवाई

Advertisment

1. AI और डीपफेक टेक्नोलॉजी के खतरे

डीपफेक (Deepfake) एक ऐसी तकनीक है जो AI का इस्तेमाल करके किसी के चेहरे या आवाज को किसी और के वीडियो में डाल देती है। इसका इस्तेमाल:

  • फर्जी खबरें फैलाने
  • सेलिब्रिटीज की नकली वीडियोज बनाने
  • फिशिंग स्कैम और वित्तीय धोखाधड़ी
  • राजनीतिक प्रोपेगेंडा फैलाने के लिए किया जा रहा है।
Advertisment

कुछ चौंकाने वाले उदाहरण

2023 में, एक डीपफेक वीडियो वायरल हुआ जिसमें एक न्यूज एंकर को गलत खबरें फैलाते हुए दिखाया गया।

  • कई मामलों में महिलाओं के चेहरे अश्लील वीडियोज में डाल दिए गए।
  • AI आवाज क्लोनिंग के जरिए लोगों को फोन करके पैसे ऐंठे जा रहे हैं।
Advertisment

2. फेक न्यूज और डीपफेक वीडियो की पहचान कैसे करें ?

डीपफेक को पहचानना मुश्किल होता जा रहा है, लेकिन कुछ संकेतों से आप इसकी पहचान कर सकते हैं...

🔍 डीपफेक वीडियो की पहचान

  • चेहरे की मूवमेंट अजीब लगे (जैसे आंखें ब्लिंक न करना या होंठ सिंक में न होना)।
  • स्किन टोन में अनियमितताएं (चेहरे और गर्दन के रंग में अंतर)।
  • बैकग्राउंड में धुंधलापन या डिस्टॉर्शन।
  • आवाज और मुंह की मूवमेंट मैच न करना।

📰 फेक न्यूज की पहचान

  • स्रोत (Source) चेक करें: क्या यह विश्वसनीय वेबसाइट से आया है?
  • हेडलाइन को गूगल पर सर्च करें – क्या दूसरे न्यूज चैनल्स ने भी यही खबर दी है?
  • फोटो रिवर्स सर्च करें (Google Images पर)।
  • ग्रामर और स्पेलिंग मिस्टेक्स पर ध्यान दें।

3. सुरक्षा के लिए जरूरी टिप्स

अगर आप AI और डीपफेक के खतरों से बचना चाहते हैं, तो ये टिप्स फॉलो करें...

🔒 ऑनलाइन सुरक्षा के उपाय

✔ सोशल मीडिया पर पर्सनल फोटोज शेयर करने से बचें।
✔ टू-फैक्टर ऑथेंटिकेशन (2FA) चालू करें।
✔ अजीब लिंक्स या अटैचमेंट्स पर क्लिक न करें।
✔ AI जनरेटेड कॉल्स पर संदेह करें (अगर कोई रिश्तेदार पैसे मांगे, तो सीधे कॉल करके पुष्टि करें)।

📢 अगर आप डीपफेक का शिकार हो जाएं तो क्या करें ?

  • वीडियो/फोटो को रिपोर्ट करें (सोशल मीडिया प्लेटफॉर्म्स पर)।
  • साइबर सेल में शिकायत दर्ज करें (https://cybercrime.gov.in)।
  • कानूनी सलाह लें (IT Act, 2000 के तहत कार्रवाई हो सकती है)।

4. भारत में डीपफेक के मामले और कार्रवाई

भारत में डीपफेक तकनीक का दुरुपयोग बढ़ रहा है। कुछ प्रमुख मामले...

📌 केस 1: राश्मिका मंदाना का डीपफेक वीडियो (2023)

  • एक एक्ट्रेस के चेहरे को एक अश्लील वीडियो में डाला गया।
  • कार्रवाई: सोशल मीडिया प्लेटफॉर्म्स ने वीडियो हटाया, लेकिन आरोपी पकड़ा नहीं गया।

📌 केस 2: AI आवाज क्लोनिंग स्कैम (2024)

  • हैदराबाद में एक व्यक्ति ने AI का इस्तेमाल करके किसी के रिश्तेदार की आवाज कॉपी की और ₹50,000 ऐंठे।
  • कार्रवाई: साइबर पुलिस ने आरोपी को गिरफ्तार किया।

📌 केस 3: नेताओं के फर्जी भाषण (2024)

  • कुछ राजनीतिक नेताओं के डीपफेक वीडियो वायरल हुए, जिसमें उन्हें गलत बयान देते हुए दिखाया गया।
  • कार्रवाई: इलेक्शन कमिशन ने सोशल मीडिया कंपनियों को चेतावनी दी।

भारत में डीपफेक के खिलाफ कानून

  • IT Act, 2000 (धारा 66E, 67, 67A) – प्राइवेसी उल्लंघन और अश्लीलता के लिए सजा।
  • IPC धारा 500 (मानहानि) – फर्जी वीडियो बनाने वालों पर केस।
  • सरकार ने नए AI रेगुलेशन्स पर काम शुरू किया है।

AI का सही इस्तेमाल करें, सतर्क रहें

AI और डीपफेक टेक्नोलॉजी अगर सही हाथों में हो, तो फायदेमंद है, लेकिन गलत इस्तेमाल से यह समाज के लिए खतरा बन सकती है। फेक कंटेंट को पहचानें, शेयर करने से पहले सत्यापन करें और साइबर क्राइम की शिकायत करने में न हिचकिचाएं।

अगर आपको यह जानकारी उपयोगी लगी हो, तो इसे शेयर करें ताकि और लोग जागरूक हो सकें!

AI deepfake
Advertisment
Advertisment