Deepfake Video की वजह से बहुत से सेलिब्रिटी को नुक्सान हो रहा है। कुछ समय पहले रश्मिका मंदाना का दीपफके वीडियो वायरल हुआ। जिसके बाद सरकार इस मामले पर सख्त मूड में नजर आ रही है. डीपफेक से यूजर्स को होने वाले नुकसान को देखते हुए सरकार जीरो टॉलरेंस की नीति अपनाएगी.
डीपफेक एक तरह का फर्जी वीडियो, फोटोज या ऑडियो होता है, जिसको आर्टिफिशियल इंटेलिजेंस (AI) की मदद से बनाया जाता है। डीपफेक में किसी भी व्यक्ति के चेहरे को अन्य व्यक्ति के शरीर पर लगाया जा सकता है। ये दिखने में बिलकुल असली की तरह होता है। देखने में या समझ पाना मुश्किल होता है की वीडियो असली है या नकली।
कहां होता है Deepfake Video का इस्तेमाल?
डीपफेक का इस्तेमाल किसी भी व्यक्ति की रेपुटेशन को नुकसान पहुंचाने या गलत सुचना को फ़ैलाने के लिए किया जाता है। AI के आने से ज्यादातर लोग इसका इस्तेमाल मनोरजन के लिए कर रहे है। लेकिन कुछ लोग इसका गलत इस्तेमाल कर रहे है।
डीपफेक से बचने के लिए क्या करें?
डीपफेक से बचने के लिए वीडियो या इमेज की अच्छे से जाँच करे अगर सोर्स पर शक होता है तो उस वीडियो पर भरोसा नहीं करना चाहिए। इसके साथ डीपफेक के बारे में इंटरनेट से जानकारी भी प्राप्त करे।
डीपफेक टेक्नोलॉजी बहुत तेजी से विकसित हो रही है। इसका इस्तेमाल ज्यादातर भ्रामक जानकारी को फैलने के लिए किया जा रहा है। यदि आप डीपफेक से बचना चाहते है तो इसके बारे में जानकारी प्राप्त होना जरुरी है।
यह भी पढ़े – Snapchat Group Link Collection (Updated List)