डीपफेक और वीडियो धोखाधड़ी के बढ़ते उपयोग से होने वाले जोखिम

कैनवा का उपयोग करके छवि बनाई गई।

लगभग छह साल पहले, मैंने पत्रकारिता के लिए एक नए “वायरस” के बारे में लिखा था। इस तथ्य के बावजूद कि कई साल बीत चुके हैं, डीपफेक के खिलाफ अभी भी कोई “एंटी-वायरस” नहीं है। इनका निर्माण अब खासा उन्नत और परिपूर्ण हो गया है बस एक अंतिम चरण और है जिसके बाद इन फर्जी वीडियो की उत्पादन प्रक्रिया और सरल हो जायेगी। अब तक, डीपफेक तैयार करने के लिए विशिष्ट प्रोग्राम का उपयोग करने में कम से कम कुछ कौशल की आवश्यकता तो रही है। पर कृत्रिम बुद्धिमत्ता (यानि आर्टफिशल इंटेलिजेंस या एआई) आधारित, उपयोग में आसान नए अनुप्रयोगों के विकास से, डीपफेक का अब बड़े पैमाने पर निर्माण हो रहा है।

संयुक्त राज्य अमेरिका में पिछले राष्ट्रपति चुनाव में, “डीपफेक” की तुलना में “चीपफेक” ज्यादा मशहूर थे। इसका मुख्य कारण यह था कि सस्ते फेक का निर्माण आसानी से किया जा जाता था, कोई भी उन्हें बना सकता था। अब जब डीपफेक के लिए भी यह संभव हो रहा है; इनको बनाना इतना आसान होने के कारण, यह कहने के लिए बहुत अधिक अनुनय और गणना की आवश्यकता नहीं है कि, चुनाव जैसी महत्वपूर्ण सामाजिक प्रक्रियाओं में, सूचना की दुनिया में डीपफेक मुख्य जोखिम होगा क्योंकि अब तकनीकी अर्थों में हेरफेर अधिक संभव होता जा रहा है।

डीपफेक कृत्रिम बुद्धिमत्ता पर आधारित झूठी दृश्य सामग्री है जिसमें एक वास्तविक व्यक्ति को कुछ ऐसा कहते या करते हुए प्रस्तुत किया जाता है जो उन्होंने कभी नहीं किया या कहा हो। अपने अस्तित्व के वर्षों में, मनोरंजन के लिए और जागरूकता के लिए अन्य डीपफेक का उत्पादन किया गया है, लेकिन ऐसे मामले भी हैं जहां डीपफेक के माध्यम से समाज में हेरफेर का उद्देश्य राजनीतिक या आर्थिक उद्देश्य है।

डीपफेक का निर्माण लागातार आसान होता जा रहा है, जिससे समाज में उनके बारे में जागरूकता बढ़ाना जरूरी हो गया है। बाल्कन क्षेत्र में एक हालिया उदाहरण सुप्रसिद्ध अल्बानियाई टीवी प्रस्तोता लुआना वोजोल्का का प्रतिरूपण करने वाला कामुक वीडियो है, जिसमें कृत्रिम बुद्धि के उपयोग के साथ उसका चेहरा एक अलग शरीर से जोड़ा गया। अल्बानियाई पत्रकार ब्लेंडी फ़ेवज़िउ ने जागरूकता उद्देश्यों के लिए अपना एक डीपफेक वीडियो प्रकाशित किया, जिसमें वह चीनी, अरबी, रूसी और पुर्तगाली बोलते हुए दिखाई देते हैं। हमारे पास 2022 के दौरान इस क्षेत्र में अन्य डीपफेक वीडियो प्रकाशित हुए थे, जैसे कि एक विडियो में ईलोन मस्क अल्बानियाई या सर्बियाई में बात करते दिखाई देते हैं।

ये ऐसे उदाहरण हैं जो दर्शाते हैं कि कुछ साल पहले की तुलना में अब डीपफेक बनाना बहुत आसान हो चला है। यदि विश्लेषण के लेंस को क्षेत्र से परे विस्तारित किया जाता है, तो एक वायरल डीपफेक प्रसिद्ध अमेरिकी मॉडल बेला हदीद का था, जिसमें वह हमास के खिलाफ युद्ध में इज़राइल के कार्यों का समर्थन करती हुई दिखाई दी थी, जैसा कि उसने नहीं कहा था। हदीद के डीपफेक को एक्स (पूर्व में ट्विटर) पर 28 मिलियन से अधिक बार देखा गया था। कृत्रिम बुद्धिमत्ता पर आधारित प्रौद्योगिकी और उपयोग में आसान कार्यक्रमों का विकास सच्चाई के लिए एक और खतरा पैदा कर रहा है।

अब, सच्चाई “मौत” के कगार पर है क्योंकि, डीपफेक के प्रसार में वृद्धि के साथ, यह समझना और अधिक कठिन हो जाएगा कि सच्चाई क्या है। मीडिया की विश्वसनीयता के संकट को देखते हुए निकट भविष्य में पत्रकारिता के लिए और भी अधिक चुनौती होगी। हालाँकि, इस सब से सबसे अच्छी तरह पेशेवर पत्रकारिता से लड़ा जा सकता है, ऐसी पत्रकारिता से जो पेशेवर मानकों का पालन करती है और सार्वजनिक हित को पहले रखती है। अन्यथा, सनसनीखेज और क्लिक-बैटिंग पत्रकारिता मीडिया के प्रति और भी अधिक अविश्वास को बढ़ावा देगी और नागरिकों को प्राप्त जानकारी के साथ असुरक्षित महसूस करने के लिए प्रेरित करेगी, जिससे सूचना वातावरण में अन्य अभिनेताओं के लिए जगह बन जाएगी। इस स्थिति में, जो लोग समाज को होने वाले नुकसान के बारे में सोचे बिना मैकियावेलियन दृष्टिकोण के साथ कोहरे में काम करना पसंद करते हैं, उन्हें हमेशा फायदा होता है।

कृत्रिम बुद्धिमत्ता पर आधारित प्रोग्रामिंग के विकास के परिणामस्वरूप डीपफेक का लोकप्रिय होना सूचना और संचार प्रसार में प्रेषक या सूचना प्राप्तकर्ता के लिए एक नया अध्याय खोलता है। इस तीव्र और अत्यंत महत्वपूर्ण विकास के कारण, सत्यापन पद्धति को अब की तुलना में अधिक सरल और तेज़ बनाने का प्रयास किया जाना चाहिए।

वर्तमान में ऐसे कुछ प्रोग्राम हैं जो इनका पता लगाने में मदद करते हैं, जैसे कि फेककैचर और सेंटिनल, लेकिन अभी भी ऐसे कोई खुले उपकरण नहीं हैं जो सभी के लिए मुफ्त में उपयोग के लिए उपलब्ध हों। साथ ही, यह महत्वपूर्ण है कि डीपफेक की प्रगति के साथ तालमेल बनाए रखने के लिए पता लगाने के तरीकों को उन्नत किया जाए, क्योंकि डीपफेक के उत्पादन की सुविधा प्रदान करने वाली तकनीक तीव्र गति से विकसित हो रही है। वर्तमान में, ये प्लेटफ़ॉर्म ऑडियो जोड़-तोड़ का पता नहीं लगाते हैं, जो दृश्य-श्रव्य जोड़-तोड़ में एक महत्वपूर्ण तत्व है क्योंकि पहले से ही कुछ मामले हैं जब छवि वास्तविक है, जबकि ध्वनि कृत्रिम बुद्धि द्वारा उत्पन्न होती है।

डीपफेक का ज्ञान और इस घटना के बारे में जागरूकता समाज को सामने आने वाले किसी भी वीडियो के प्रति अधिक आलोचनात्मक होने में मदद करती है। डीपफेक का पता लगाने के लिए उपकरण महत्वपूर्ण हैं, लेकिन दुष्प्रचार का मुकाबला करने के लिए व्यक्तियों और नागरिक समाज संगठनों की ओर से भी एक बड़ी प्रतिबद्धता की आवश्यकता होगी ताकि समाज को रोजमर्रा की जिंदगी में डीपफेक के अस्तित्व और निहितार्थ के बारे में जागरूक किया जा सके।

दूसरी ओर, डीपफेक के लिए एक नया कानूनी ढांचा आवश्यक नहीं है क्योंकि पहले से ही ऐसे कानून हैं जो व्यक्तियों, व्यवसायों या समग्र रूप से समाज को धोखा देने, बदनाम करने या नुकसान पहुंचाने वाली सामग्री को नियंत्रित करते हैं। हालाँकि, उनके वितरण की गति, वायरलाइजेशन और संभावित नुकसान के कारण, डीपफेक को प्राथमिकता देना महत्वपूर्ण है।

बातचीत शुरू करें

लेखक, कृपया सत्रारंभ »

निर्देश

  • कृपया दूसरों का सम्मान करें. द्वेषपूर्ण, अश्लील व व्यक्तिगत आघात करने वाली टिप्पणियाँ स्वीकार्य नहीं हैं।.