खबरे |

खबरे |

Deepfake AI scam: जानें आखिर क्या है Deepfake AI scam ?, ज्यादात्तर लोग हो रह हैं इसके शिकार
Published : Nov 6, 2023, 2:02 pm IST
Updated : Nov 6, 2023, 2:02 pm IST
SHARE ARTICLE
Deepfake AI scam
Deepfake AI scam

एआई की डीपफेक तकनीक का लोग गलत इस्तेमाल कर रहे हैं। 

Deepfake AI scam news in Hindi: दुनियाभर में आर्टिफिशियल इंटेलिजेंस AI यानी चर्चा का विषय बना हुआ है.  ज्यादात्तर लोग इसके बारे में जानना चाहते है. यह एक ऐसी टेक्नोलॉजी है जिसका इस्तेमाल लोग सही काम के लिए कम और गलत काम के लिए ज्यादा कर रहे हैं. बता दें कि हाल ही में साउथ और बॉलीवीड एक्ट्रेस रश्मिका मंदाना का एक फेक वीडियो वायरल हो रहा है, जिसे देख लोग हैरान है. वीडियो में एक्ट्रेस डीपनेक जिम आउटफीट में नजर आ रही है. 

बता दें कि इस वीडियो को एआई की डीपफेक तकनीक की मदद से बनाया गया है. वीडियो में किसी और लड़की के चेहरे पर एक्ट्रेस का चेहरा लगा दिया गया है.  बता दें कि एआई की डीपफेक तकनीक का लोग गलत इस्तेमाल कर रहे हैं। 

आखिर क्या है Deepfake AI scam?

डीपफेक का जन्म  AI  की वजह से हुआ है. एआई की डीपफेक तकनीक एक प्रकार का सिंथेटिक मीडिया है। जो एआई का उपयोग कर किसी भी फोटो या वीडियो में किसी भी चेहरे को किसी और व्यक्ति के फोटो और वीडियो से बदल देता है.  इतना ही नहीं इसमें आवाज भी पुरी तरह से बदल दिया जाता है.  AI यानी आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी क्षमता की वहज से आम लोग इस तरह के फोटो,वीडियो और ऑडियो की पहचान नहीं कर पाते है.  AI इसे पुरी तरह असल दिखाने में माहिर है. आम लोग यह पहचान ही नहीं पाते की यह सच या फेक है और जालसाजों के ट्रेप में फस जाते है. 

बता दें कि कुछ समय पहले ही  एआई की डीपफेक तकनीक  की मदद से एक व्यक्ति से 40000 रुपयं ठग लिए थे. डीपफेक किसी की भी आवाज को हुबहू उतारने में माहिर है.

आजकल सोशल मीडियो पर यह काफी चलन में है. वहीं एक्ट्रेस रश्मिका मंदाना भी इसका शिकार हुई है. AI टूल की मदद से किसी भी आवाज, वीडियो और फोटो को किसी से भी बड़ी आसानी और सफाई से बदला जा रहा है. 

इससे कैसे बचा जा सकता है

आर्टिफिशियल इंटेलिजेंस जब से आया है लोग इसका सही इस्तेमाल कम और गलत इस्तेमाल ज्यादा कर रहे हैं. लोग आवाज बदलकर लोगों से पैसै ठग रहे है. वीडियो और फोटो को एडिट कर ब्लैकमेल कर रहे हैं. अगर आप चाहते है कि आपके साथ ऐसा कभी ना हो तो आपको सावधान रहने की जरुरत है. आप अपनी नीजी तस्वीरें और वीडियो सोशल मीडियो पर शेयर करने से बचें। क्योंकि अपराधी इन्हें  एआई की डीपफेक तकनीक  की मदद से एडिट कर आपकोब्लैकमेल कर सकते है. अपनी पर्सनल जानकारी कम से कम ही सोशल मीडिया पर पोस्ट करें। 

 

Location: India, Delhi, New Delhi

SHARE ARTICLE

ROZANASPOKESMAN

Advertisement

 

चंद्रयान-3 के बाद ISRO ने का एक और कमाल, अब इस मिशन में हासिल की सफलता

11 Aug 2023 7:01 PM

अरे नीचे बैठो...प्रधानमंत्री पर उंगली उठाई तो औकात दिखा दूंगा', उद्धव गुट पर भड़के केंद्रीय मंत्री

11 Aug 2023 6:59 PM

शिमला में नहीं थम रहा बारिश का कहर, देखिए कैसे आंखों के सामने ढह गया आशियाना

11 Aug 2023 6:57 PM

सोनू सूद के लिए फैंस का प्यार देखिए! एक्टर के जन्मदिन पर बनाई खास पेंटिंग

11 Aug 2023 6:56 PM

हिमाचल जाने वाले सावधान! आंख झपकते ही हुआ हादसा, JCB पर गिरी चट्टानें

19 Jul 2023 7:00 PM