Abhi14

विराट का एक और डीपफेक वीडियो वायरल:कहा: गिल के लिए अगला कोहली बनना मुश्किल; उन्होंने खुद को और सचिन को लीजेंड बताया.

38 मिनट पहले

  • लिंक की प्रतिलिपि करें

विराट का मौजूदा डीपफेक वीडियो 33 सेकंड लंबा है। इसी साल फरवरी में भी उनका एक डीपफेक वीडियो वायरल हुआ था.

भारत के स्टार बल्लेबाज विराट कोहली का एक और डीपफेक वीडियो वायरल हो गया है. इस वीडियो में कोहली के पुराने इंटरव्यू को एडिट किया गया है. 33 सेकेंड के इस वीडियो में कोहली भारतीय ओपनर शुभमन गिल को भला-बुरा कहते नजर आ रहे हैं. वे तेंदुलकर और खुद को लीजेंड कहते हैं।’

इसी साल फरवरी में भी उनका डीपफेक वीडियो वायरल हुआ था. उस वीडियो में कोहली एक सट्टेबाजी ऐप का विज्ञापन करते नजर आ रहे थे. इसके बाद भारतीय क्रिकेटर ने सोशल मीडिया पोस्ट के जरिए सफाई दी।

इस वीडियो में कहा: विराट कोहली तो एक ही है.

इस वीडियो में कोहली कहते हैं, ”मैं गिल को करीब से देख रहा हूं. वे प्रतिभाशाली हैं. इसमें कोई शक नहीं है, लेकिन प्रतिभा दिखाने और स्टार बनने में बहुत बड़ा अंतर है। गिल की तकनीक शानदार है, लेकिन हमें खुद से आगे नहीं बढ़ना चाहिए। लोग उन्हें अगले विराट कोहली के रूप में देखते हैं, लेकिन मैं स्पष्ट कर दूं कि विराट कोहली केवल एक ही हैं। मैंने जितने खतरनाक गेंदबाजों का सामना किया है और जिन परिस्थितियों में मैंने रन बनाए हैं, उन्हें गिल की एक पारी में नहीं मापा जा सकता। ऐसा करने में आपको समय लगेगा.

तेंदुलकर और उनकी बेटी सारा भी पीड़ित थे।

पूर्व क्रिकेटर सचिन तेंदुलकर भी डीपफेक का शिकार हो चुके हैं। उनका एक वीडियो वायरल हुआ था, जिसमें वह गेमिंग ऐप ‘स्काईवर्ड एविएटर क्वेस्ट’ का प्रमोशन करते नजर आए थे।

सचिन ने खुद इसे पोस्ट करते हुए लिखा कि ये वीडियो फर्जी है और आपको गुमराह करने के लिए बनाया गया है. टेक्नोलॉजी का इस तरह का दुरुपयोग पूरी तरह से गलत है. उन्होंने इस संदेश के साथ भारत सरकार, सूचना एवं प्रसारण राज्य मंत्री राजीव चन्द्रशेखर और महाराष्ट्र साइबर पुलिस को टैग किया था.

इस फर्जी वीडियो में वह कहते नजर आ रहे हैं कि उनकी बेटी सारा इस गेम से हर दिन काफी पैसे निकालती है. वे लोगों को बताते हैं कि मुझे आश्चर्य है कि अब ढेर सारा पैसा कमाना कितना आसान हो गया है।

सचिन ने इस वीडियो को सोशल मीडिया पर पोस्ट कर लोगों को इसके बारे में आगाह किया।

सचिन ने इस वीडियो को सोशल मीडिया पर पोस्ट कर लोगों को इसके बारे में आगाह किया।

रश्मिका मंदाना का डीपफेक वीडियो हुआ वायरल
पिछले साल नवंबर में, रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हुआ था, जिसमें आर्टिफिशियल इंटेलिजेंस तकनीक का उपयोग करके रश्मिका के चेहरे को स्पष्ट रूप से एक प्रभावशाली व्यक्ति के चेहरे में बदल दिया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली मान लिया, क्योंकि इसमें दिख रहे एक्सप्रेशन बिल्कुल असली लग रहे थे.

इस फर्जी वीडियो में आर्टिफिशियल इंटेलिजेंस तकनीक का इस्तेमाल कर रश्मिका के चेहरे को एक प्रभावशाली व्यक्ति के चेहरे में बदल दिया गया था।

इस फर्जी वीडियो में आर्टिफिशियल इंटेलिजेंस तकनीक का इस्तेमाल कर रश्मिका के चेहरे को एक प्रभावशाली व्यक्ति के चेहरे में बदल दिया गया था।

हालाँकि, यह महिला रश्मिका नहीं बल्कि ज़ारा पटेल नाम की लड़की थी, जिसका चेहरा बदलकर रश्मिका हो गया। डीपफेक वीडियो वायरल होने के बाद ALT न्यूज के एक पत्रकार ने इसका खुलासा किया। यहां पढ़ें पूरी खबर…

कई सेलिब्रिटी भी इसका शिकार हो चुके हैं.
रश्मिका मंधाना के अलावा आलिया भट्ट और दीपिका पादुकोण जैसी हस्तियां भी डीपफेक वीडियो का शिकार बन चुकी हैं।

डीपफेक क्या है और इसे कैसे किया जाता है?
डीपफेक शब्द का इस्तेमाल पहली बार 2017 में किया गया था। डीपफेक पहचान वाली कई मशहूर हस्तियों के वीडियो तब अमेरिकी सोशल न्यूज एग्रीगेटर रेडिट पर पोस्ट किए गए थे। इसमें एक्ट्रेस एम्मा वॉटसन, गैल गैडोट और स्कारलेट जोहानसन के कई अश्लील वीडियो थे।

किसी वास्तविक वीडियो, फोटो या ऑडियो में किसी अन्य व्यक्ति का चेहरा, आवाज और अभिव्यक्ति डालना डीपफेक कहलाता है। ये इतना साफ़ होता है कि कोई भी इस पर यकीन कर सकता है. इसमें असत्य भी सत्य प्रतीत होता है।

इसके लिए मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस की मदद ली जाती है। इसमें टेक्नोलॉजी और सॉफ्टवेयर की मदद से वीडियो और ऑडियो बनाया जाता है।

एआई और साइबर विशेषज्ञ पुनीत पांडे का कहना है कि तैयार तकनीक और पैकेज अब उपलब्ध हैं। अब इसे कोई भी इस्तेमाल कर सकता है. आज की तकनीक में आवाज में भी सुधार हुआ है। इस लिहाज से वॉयस क्लोनिंग बेहद खतरनाक हो गई है.

ये खबर भी पढ़ें…

मोदी बोले: डीपफेक डिजिटल युग के लिए खतरनाक: एक वीडियो में उन्होंने मुझे गरबा गाना गाते हुए दिखाया, ऐसे कई वीडियो मिलेंगे

प्रधानमंत्री नरेंद्र मोदी ने डीपफेक तकनीक को खतरनाक बताया. 17 नवंबर को उन्होंने कहा था कि एक वीडियो में उन्होंने मुझे गरबा गाना गाते हुए दिखाया है, उनमें से कई वीडियो ऑनलाइन उपलब्ध हैं. मोदी ने यह भी कहा कि डीपफेक डिजिटल युग के लिए खतरा है। यहां पढ़ें पूरी खबर…

भास्कर एक्सप्लेनर: डीपफेक क्या है?, किसने बनाया रश्मिका का वीडियो: एआई के लिए बस कुछ सेकेंड का काम; उसके पीड़ितों को क्या करना चाहिए?

डीपफेक वीडियो वायरल होने के बाद रश्मिका ने लिखा, ‘ईमानदारी से कहूं तो ऐसा कुछ न केवल मेरे लिए बल्कि हममें से हर किसी के लिए बहुत डरावना है।’ अगर मेरे साथ ऐसा तब हुआ होता जब मैं स्कूल या कॉलेज में थी, तो मैंने इसका सामना करने के बारे में सोचा भी नहीं होता। डीप फेक क्या है, यह कैसे काम करता है और इससे निपटने के लिए क्या कानून हैं? भास्कर एक्सप्लेनर पर पढ़ें…

और भी खबरें हैं…

Leave a comment