आर्टिफिशियल इंटेलिजेंस से होगी परफेक्ट फेक वीडियो की पहचान
आर्टिफिशियल इंटेलिजेंस से होगी परफेक्ट फेक वीडियो की पहचान

वीडियो: आर्टिफिशियल इंटेलिजेंस से होगी परफेक्ट फेक वीडियो की पहचान

वीडियो: आर्टिफिशियल इंटेलिजेंस से होगी परफेक्ट फेक वीडियो की पहचान
वीडियो: Jackie Chiodo | Boho Beautiful’s FIRST Yoga Teacher Training & The Path of The Rebel ⚡ - YouTube 2024, अप्रैल
Anonim
लिट्विनेंको के जहर के बारे में ओपेरा का प्रीमियर इंग्लैंड में शुरू होता है
लिट्विनेंको के जहर के बारे में ओपेरा का प्रीमियर इंग्लैंड में शुरू होता है

एक साल पहले, स्टैनफोर्ड के मनीष अग्रवाल ने लिप-सिंकिंग तकनीक विकसित करने में मदद की जिसने वीडियो संपादकों को बोलने वालों के शब्दों को लगभग अगोचर रूप से बदलने की अनुमति दी। उपकरण आसानी से उन शब्दों को सम्मिलित कर सकता है जो किसी व्यक्ति ने कभी नहीं बोले, यहां तक कि एक वाक्य के बीच में भी, या उसके द्वारा कहे गए शब्दों को हटा सकते हैं। सब कुछ नंगी आंखों और यहां तक कि कई कंप्यूटर सिस्टम को भी यथार्थवादी लगेगा।

इस टूल ने पूरे दृश्यों को फिर से शूट किए बिना गलतियों को ठीक करना बहुत आसान बना दिया है, और अलग-अलग जगहों पर अलग-अलग दर्शकों के लिए टीवी शो या फिल्मों को भी अनुकूलित किया है। लेकिन इस तकनीक ने सच्चाई को विकृत करने के स्पष्ट इरादे से, मुश्किल से ढूंढे जाने वाले नकली वीडियो के लिए परेशान करने वाले नए अवसर भी पैदा किए हैं। उदाहरण के लिए, हाल ही में एक रिपब्लिकन वीडियो ने जो बिडेन के साथ एक साक्षात्कार के लिए एक कठिन तकनीक का इस्तेमाल किया।

इस गर्मी में, अग्रवाल और स्टैनफोर्ड और यूसी बर्कले के सहयोगियों ने लिप-सिंक तकनीक के लिए एक कृत्रिम बुद्धिमत्ता-आधारित दृष्टिकोण का अनावरण किया। नया कार्यक्रम लोगों की आवाज़ और उनके मुंह के आकार के बीच की छोटी-छोटी विसंगतियों को पहचानते हुए 80 प्रतिशत से अधिक नकली का सटीक रूप से पता लगाता है।

लेकिन स्टैनफोर्ड इंस्टीट्यूट फॉर मीडिया इनोवेशन के निदेशक और फॉरेस्ट बास्केट में कंप्यूटर साइंस के प्रोफेसर अग्रवाल, जो स्टैनफोर्ड इंस्टीट्यूट फॉर ह्यूमन-सेंटेड आर्टिफिशियल इंटेलिजेंस से भी संबद्ध हैं, ने चेतावनी दी है कि गहरे नकली का कोई दीर्घकालिक तकनीकी समाधान नहीं है।

नकली कैसे काम करता है

वीडियो हेरफेर के वैध कारण हैं। उदाहरण के लिए, कोई भी काल्पनिक टीवी शो, फिल्म या विज्ञापन फिल्माने वाला कोई भी व्यक्ति त्रुटियों को ठीक करने या स्क्रिप्ट को अनुकूलित करने के लिए डिजिटल टूल का उपयोग करके समय और पैसा बचा सकता है।

समस्या तब उत्पन्न होती है जब इन उपकरणों का उपयोग जानबूझकर गलत सूचना फैलाने के लिए किया जाता है। और कई तकनीकें औसत दर्शक के लिए अदृश्य हैं।

कई गहरे नकली वीडियो चेहरे की अदला-बदली पर भरोसा करते हैं, वस्तुतः एक व्यक्ति के चेहरे को दूसरे व्यक्ति के वीडियो पर सुपरइम्पोज़ करते हैं। लेकिन जबकि फेस चेंजर उपकरण सम्मोहक हो सकते हैं, वे अपेक्षाकृत कच्चे होते हैं और आमतौर पर डिजिटल या दृश्य कलाकृतियों को छोड़ देते हैं जिन्हें कंप्यूटर पहचान सकता है।

दूसरी ओर, लिप सिंक प्रौद्योगिकियां कम दिखाई देती हैं और इसलिए इसका पता लगाना अधिक कठिन होता है। वे छवि के एक बहुत छोटे हिस्से में हेरफेर करते हैं और फिर होंठ आंदोलनों को संश्लेषित करते हैं जो वास्तव में मेल खाते हैं कि अगर किसी व्यक्ति ने कुछ शब्द बोले तो उसका मुंह वास्तव में कैसे चलेगा। अग्रवाल के अनुसार, किसी व्यक्ति की छवि और आवाज के पर्याप्त नमूने दिए जाने पर, एक नकली निर्माता किसी व्यक्ति को कुछ भी "कह" सकता है।

नकली पहचान

ऐसी तकनीक के अनैतिक उपयोग के बारे में चिंतित, अग्रवाल ने एक डिटेक्शन टूल विकसित करने के लिए स्टैनफोर्ड में डॉक्टरेट छात्र ओहद फ्रीड के साथ काम किया; हानी फरीद, कैलिफोर्निया विश्वविद्यालय में प्रोफेसर, बर्कले स्कूल ऑफ इंफॉर्मेशन; और श्रुति अग्रवाल, बर्कले में डॉक्टरेट की छात्रा।

सबसे पहले, शोधकर्ताओं ने विशुद्ध रूप से मैनुअल तकनीक के साथ प्रयोग किया जिसमें पर्यवेक्षकों ने वीडियो फुटेज का अध्ययन किया। इसने अच्छा काम किया, लेकिन व्यवहार में यह श्रमसाध्य और समय लेने वाला था।

शोधकर्ताओं ने तब एक कृत्रिम बुद्धि-आधारित तंत्रिका नेटवर्क का परीक्षण किया जो पूर्व राष्ट्रपति बराक ओबामा के साथ वीडियो पर प्रशिक्षण के बाद समान विश्लेषण करने के लिए बहुत तेज़ होगा। तंत्रिका नेटवर्क ने ओबामा के स्वयं के लिप-सिंकिंग के 90 प्रतिशत से अधिक का पता लगाया, हालांकि अन्य वक्ताओं के लिए सटीकता लगभग 81 प्रतिशत तक गिर गई।

सच्चाई की एक वास्तविक परीक्षा

शोधकर्ताओं का कहना है कि उनका दृष्टिकोण बिल्ली और चूहे के खेल का हिस्सा है। जैसे-जैसे गहरी जालसाजी तकनीकों में सुधार होता है, वे और भी कम चाबियां छोड़ेंगे।

अंतत:, अग्रवाल कहते हैं, असली समस्या इतनी गहरी नकली वीडियो से लड़ना नहीं है जितना कि दुष्प्रचार से लड़ना। वास्तव में, वह नोट करता है, कि लोगों ने वास्तव में जो कहा, उसके अर्थ को विकृत करने से बहुत सी गलत सूचनाएँ उत्पन्न होती हैं।

"गलत सूचना को कम करने के लिए, हमें मीडिया साक्षरता में सुधार करने और जवाबदेही प्रणाली विकसित करने की आवश्यकता है," वे कहते हैं। "इसका मतलब गलत सूचना के जानबूझकर उत्पादन और उनके उल्लंघन के परिणामों के साथ-साथ परिणामी नुकसान को खत्म करने के लिए तंत्र को प्रतिबंधित करने वाले कानून हो सकते हैं।"

सिफारिश की: