Deepfake Video पर सरकार की सख्त चेतावनी, कंपनियों पर कसेगी नकेल

Deepfake Video

Deepfake Video की वजह से बहुत से सेलिब्रिटी को नुक्सान हो रहा है। कुछ समय पहले रश्मिका मंदाना का दीपफके वीडियो वायरल हुआ। जिसके बाद सरकार इस मामले पर सख्त मूड में नजर आ रही है. डीपफेक से यूजर्स को होने वाले नुकसान को देखते हुए सरकार जीरो टॉलरेंस की नीति अपनाएगी.

डीपफेक एक तरह का फर्जी वीडियो, फोटोज या ऑडियो होता है, जिसको आर्टिफिशियल इंटेलिजेंस (AI) की मदद से बनाया जाता है। डीपफेक में किसी भी व्यक्ति के चेहरे को अन्य व्यक्ति के शरीर पर लगाया जा सकता है। ये दिखने में बिलकुल असली की तरह होता है। देखने में या समझ पाना मुश्किल होता है की वीडियो असली है या नकली।

कहां होता है Deepfake Video का इस्तेमाल?

deepfake video rashmika mandana

डीपफेक का इस्तेमाल किसी भी व्यक्ति की रेपुटेशन को नुकसान पहुंचाने या गलत सुचना को फ़ैलाने के लिए किया जाता है। AI के आने से ज्यादातर लोग इसका इस्तेमाल मनोरजन के लिए कर रहे है। लेकिन कुछ लोग इसका गलत इस्तेमाल कर रहे है।

डीपफेक से बचने के लिए क्या करें?

डीपफेक से बचने के लिए वीडियो या इमेज की अच्छे से जाँच करे अगर सोर्स पर शक होता है तो उस वीडियो पर भरोसा नहीं करना चाहिए। इसके साथ डीपफेक के बारे में इंटरनेट से जानकारी भी प्राप्त करे।

डीपफेक टेक्नोलॉजी बहुत तेजी से विकसित हो रही है। इसका इस्तेमाल ज्यादातर भ्रामक जानकारी को फैलने के लिए किया जा रहा है। यदि आप डीपफेक से बचना चाहते है तो इसके बारे में जानकारी प्राप्त होना जरुरी है।

यह भी पढ़े – Snapchat Group Link Collection (Updated List)

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top