'दारू पिणारा वाघ ते झेप घेणारे बिबटे' : AI ने तयार केलेले 'हे' व्हीडिओ नेमके ओळखायचे कसे?

एआयने तयार केलेले व्हीडिओ

फोटो स्रोत, youtube/sora

फोटो कॅप्शन, एआयने तयार केलेले व्हीडिओ
    • Author, अमृता दुर्वे
    • Role, बीबीसी मराठी प्रतिनिधी
  • वाचन वेळ: 4 मिनिटे

गेल्या काही दिवसांत तुम्ही झोपलेल्या माणसाला उचलून नेणाऱ्या वाघाचा वा लखनौमध्ये आलेल्या बिबट्याचा, पुण्यात आलेल्या बिबट्यांचे व्हीडिओ पाहिले आहेत का?

तुमच्या फॉरवर्ड्स किंवा सोशल मीडिया फीडवर आलेले ही व्हीडिओ खोटे आहेत.

आपलं सोशल मीडिया फीड एआयने ताब्यात घेतलंय. अल्गोरिदम आणि त्यात आपल्याला दिसणारा कंन्टेटपण.

आता आपल्याला दिसत असलेले बिबट्या, वाघ, अस्वलं, कुत्रे यांचे अनेक व्हीडिओज हे एआयच्या मदतीने तयार करण्यात आलेले आहेत.

या व्हीडिओंना फसू नये म्हणून काय करायचं?

गेल्या 6 महिन्यांत एआय व्हीडिओ जनरेटर्स म्हणजे अशी अ‍ॅप्स ज्यांच्या मदतीने एआय व्हीडिओ तयार करता येतात, त्यांमध्ये प्रचंड सुधारणा झाली आहे.

सोरासारखी अनेक अ‍ॅप्स लोकांना उपलब्ध झालेली आहेत. आणि परिणाम म्हणून एआयच्या मदतीने निर्माण करण्यात आलेल्या कंटेटचं प्रमाण वाढलंय.

YouTube पोस्टवरून पुढे जा
परवानगी (सोशल मीडिया साईट) मजकूर?

या लेखात सोशल मीडियावरील वेबसाईट्सवरचा मजकुराचा समावेश आहे. कुठलाही मजकूर अपलोड करण्यापूर्वी आम्ही तुमची परवानगी विचारतो. कारण संबंधित वेबसाईट कुकीज तसंच अन्य तंत्रज्ञान वापरतं. तुम्ही स्वीकारण्यापूर्वी सोशल मीडिया वेबसाईट्सची कुकीज तसंच गोपनीयतेसंदर्भातील धोरण वाचू शकता. हा मजकूर पाहण्यासाठी 'स्वीकारा आणि पुढे सुरू ठेवा'.

सावधान: अन्य वेबसाईट्सवरील मजकुरासाठी बीबीसी जबाबदार नाही. YouTube मजुकरात जाहिरातींचा समावेश असू शकतो.

YouTube पोस्ट समाप्त

अनेक व्हीडिओ असे आहेत, जे अगदी खरेखुरे वाटतात आणि असं खऱ्या वाटणाऱ्या व्हीडिओंचं प्रमाण यापुढे वाढतच जाणार आहे.

कारण AI स्वतःच्या चुकांमधून शिकत जातं आणि शिवाय या AI इंजिन्सना प्रचंड डेटा पुरवून शिकवलंही जातं. त्यामुळे त्यात यापुढे अजून प्रचंड झपाट्याने सुधारणा होतील.

Skip podcast promotion and continue reading
बीबीसी न्यूज मराठी आता व्हॉट्सॲपवर

तुमच्या कामाच्या गोष्टी आणि बातम्या आता थेट तुमच्या फोनवर

फॉलो करा

End of podcast promotion

पण मग AIचे व्हीडिओ ओळखण्यासाठी काय करायचं? सध्या या काही गोष्टी लक्षात ठेवता येतील.

व्हीडिओ क्वालिटी

वाईट पिक्चर क्वालिटी, ब्लर असणारा व्हीडिओ हे कदाचित AI व्हीडिओ असल्याचं लक्षण असू शकतं.

सध्याचा कोणताही बेसिक फोन घेतला तरी त्यातला कॅमेरा 4के मध्ये व्हीडिओ शूट करतो. अगदी रात्रीचे व्हीडिओही स्पष्ट रेकॉर्ड होतात.

मग हा व्हीडिओ असा का? हा प्रश्न पडायला हवा.

सीसीटीव्ही फुटेज असल्याचा बनाव

या पिक्चर क्वालिटीची झाकपाक करण्यासाठी मग काय केलं जातं माहिती आहे का, तर हा एआय व्हीडिओ सीसीटीव्ही फुटेज असल्याचं भासवलं जातं.

व्हायरल झालेल्या कित्येक व्हीडिओंपैकी अनेक ही सीसीटीव्ही फुटेजच्या स्वरूपात आहेत. अनेकदा यातली तारीख, वेळ या जागी कोणतेही आकडे लिहीलेले असतात.

अशा व्हीडिओंची ऑडिओ क्वालिटीही चांगली नसते.

त्यामुळे वाईट पिक्चर आणि ऑडिओ क्वालिटी आणि सीसीटीव्ही फुटेज हे हा व्हीडिओ बनावट असल्याचं लक्षण आहे.

अत्यंत चकचकीत रंग आणि रूप

याच्या बरोबर उलट चित्रं असणंही हा व्हीडिओ खोटा असल्याचं चिन्ह असू शकतात. म्हणजे व्हीडिओमधल्या लोकांची त्वचा अगदी तुकतुकीत, चकचकीत असणं, नाक-डोळे आखीवरेखीव, केस किंवा कपडे वेगळ्याच प्रकारे हलणं.

व्हीडिओतल्या व्यक्तीच्या चेहऱ्यावरचे भाव, डोळ्यांच्या हालचाली पहा. त्या अनैसर्गिक वाटतात.

एआयला बऱ्याचदा हे बारकावे जमत नाहीत. आतापर्यंत एआयला हात, बोटं करणंही नीट जमत नव्हतं. काही Apps मध्ये हा घोळ अजूनही आहे.

एक गोष्ट करून पहा जसे की, एआयला सांगा की मला डाव्या हाताने लिहिणाऱ्या व्यक्तीचा फोटो दे. त्याफोटोत ज्या प्रकारे पेन धरलेलं असेल, तसं कोणतीच डावखुरी व्यक्ती लिहीत नाही.

ट्रॅम्पोलिनवर उड्या मारणाऱ्या सशांचा व्हीडिओ

फोटो स्रोत, x/greg16676935420

फोटो कॅप्शन, ट्रॅम्पोलिनवर उड्या मारणाऱ्या सशांचा व्हीडिओ काही काळापूर्वी प्रचंड व्हायरल झाला होता. पण नीट पाहिलंत तर लक्षात येईल की हा एआय जनरेटेड आहे.

गायब होणारे तपशील

अनेकदा एआय व्हीडिओमध्ये खूप गमतीशीर काहीतरी सुरू असतं आणि आपण त्यात इतके गुंग होतो की त्यातल्या बारकाव्यांकडे आपलं लक्ष जात नाही.

ट्रॅम्पोलिनवर उड्या मारणाऱ्या सशांचा व्हीडिओ काही काळापूर्वी प्रचंड व्हायरल झाला होता. पण नीट पाहिलंत तर लक्षात येईल की हा एआय जनरेटेड आहे.

यात सुरुवातीला 6 ससे आहेत. उड्या मारताना एक आपोआप गायब होतो. आणि एका सशाचा आकारंच बदलतो. शिवाय, हा व्हीडिओ पण सीसी फुटेज असल्याचं भासवलंय.

कमी सेकंदांच्या क्लिप्स

एआय व्हीडिओ ओळखण्याचा आणखीन एक मार्ग म्हणजे या क्लिप्स अगदी छोट्या, काही सेकंदांच्या असतात. म्हणजे आपण इन्स्टाग्राम किंवा शॉर्ट्सला जे व्हीडिओ पाहतो, त्यापेक्षा या क्लिप्सचा कालावधी अगदी कमी असतो.

कारण जास्त लांबीचे व्हीडिओ एआयवर तयार करायाला पैसे भरावे लागतात. आणि फ्री व्हर्जनमध्ये तुम्हाला फक्त काही सेकंदांची क्लिपच तयार करता येते. म्हणून हे व्हीडिओ 6-8-10 सेकंदांचे असतात.

तुम्ही पाहत असलेल्या व्हीडिओवर स्क्रीनवर सोरा हे नाव असेल, तर तो एआय व्हीडिओ आहे.

फोटो स्रोत, youtube/sora

फोटो कॅप्शन, तुम्ही पाहत असलेल्या व्हीडिओवर स्क्रीनवर सोरा हे नाव असेल, तर तो एआय व्हीडिओ आहे.

वॉटरमार्क

ओपन एआयचं सोरा हे अ‍ॅप वापरून व्हीडिओ तयार केले की त्यावर एक वॉटरमार्क येतो.

त्यामुळे तुम्ही पाहत असलेल्या व्हीडिओवर स्क्रीनवर सोरा हे नाव असेल, तर तो AI व्हीडिओ आहे.

अनेकदा व्हीडिओ व्हायरल करणारे लोक एडिटिंग सॉफ्टवेअर वापरून हा वॉटरमार्क झाकतात.

पण असं केल्याने व्हीडिओच्या कुठल्यातरी भागात स्क्रीनवर ब्लर पॅच दिसतात,आणि गायब होतात. त्याकडेही लक्ष ठेवा.

चुकलेलं भौतिकशास्त्र

एआय अनेक गोष्टी हुबेहूब कॉपी करत असलं तरी एआयला अजून भौतिकशास्त्र फोटो, व्हीडिओत फारसं साधलेलं नाही. म्हणजे हा तथाकथितपणे पुण्यात फिरणाऱ्या बिबट्याचा फोटो.

या बिबट्याच्या शरीराचा आकार वेगळा आहे, शेपूट धूसर आहे आणि उजेड कुठून येतोय. सावली कुठे आणि किती मोठी आहे या गोष्टी जुळत नाहीत. हा एआयने केलेला व्हीडिओ असल्याचं वनविभागानेही स्पष्ट केलंय.

याच गोष्टी त्या व्हीडिओत कुणी उडी मारत असेल, धावत असेल, तर त्याबाबतही जाणवतात.

AI क्रिया आणि प्रतिक्रिया हे पण कळत नाही.

खरंच असं होऊ शकतं?

सगळ्यात महत्त्वाची गोष्ट म्हणजे एखादा व्हीडिओ पाहताना खरंच असं होऊ शकतं का, याचा विचार करा.

म्हणजे रस्त्यावर बसलेला वाघ आणि त्याला दारू पाजण्याचा प्रयत्न करणारा माणूस, असं खरंच होऊ शकतं का? फॉरवर्ड करायच्या आधी विचार करा.

हा व्हायरल व्हीडिओ पेंचमधला नाही हे स्पष्ट करत नागपूर ग्रामीण पोलिसांनी ही क्लिप सोशल मीडियावर पोस्ट करणाऱ्या मुंबईतल्या एका व्यक्तीला कायदेशीर नोटीसही दिलेली आहे.

 रस्त्यावर बसलेला वाघ आणि त्याला दारू पाजण्याचा प्रयत्न करणारा माणूस

फोटो स्रोत, youtube

फोटो कॅप्शन, रस्त्यावर बसलेला वाघ आणि त्याला दारू पाजण्याचा प्रयत्न करणाऱ्या माणसाचा व्हायरल व्हीडिओ

त्यामुळे असे भीती पसरवणारे व्हीडिओ तयार करू नका, पोस्ट करू नका. तुमच्यावर कारवाई होऊ शकते.

AI मुळे डीपफेक्स तयार करणं सोपं झालंय. दिवसेंदिवस हे फोटो, व्हीडिओ अधिकाधिक वास्तवासारखे होत राहणार, आपल्याला खरेच असल्यासारखे वाटणार, हे ही पण वास्तव आहे. त्यामुळे आपल्यालाच स्वतःला काही सवयी लावून घ्यायला हव्यात.

व्हॉट्सअ‍ॅपवरचे फॉरवर्ड्स, आपल्याला येणारे ऑफर्सचे फोन कॉल्स याबद्दल आपण जसे आता सतर्क राहतो, तसंच आता व्हीडिओंच्याबाबतीतही करायला हवं.

बीबीसीसाठी कलेक्टिव्ह न्यूजरूमचे प्रकाशन.