Deepfake Technology: నేరరూపం దాలుస్తున్న అధునాతన సాంకేతికత
DEEPFAKE TECHNOLOGY
అత్యాధునిక సమాజంలో మానిషి చేయలేని ఎన్నో పనులు యంత్రాలు చేస్తున్నాయి. కొన్ని సందర్బాల్లో అయితే యంత్రాల సాయం కూడా అవసరం లేకుండా కొన్ని యాప్స్ చేస్తున్నాయి. ఇంతటి సాంకేతికత ఓ రకంగా సమాజాన్ని ముందుకు తీసుకెళ్లినా… అదే సమాజంలో కొందరిని బయటకు రానివ్వకుండా చేస్తున్నాయి. అలాంటి సాప్ట్ వేర్ లలో ‘డీప్ ఫేకింగ్’ పేరుతో ప్రాచుర్యం పోందిన సాంకేతికత కూడా అలాంటిదే. ముందు చిన్నగా ప్రారంభమై వినోదాన్ని అందించి క్రమక్రమంగా వినాశనాన్ని సృష్టిస్తున్నది. లేనిది ఉన్నట్లు ఉన్నది లేనట్టు చూపించే కనికట్టు దీని ప్రత్యేకత అని చెప్పాలి.
ఫొటోగ్రఫీని కనిపెట్టి రెండువందల సంవత్సరాలు అవుతున్నది. జోసెఫ్ నిసెఫోర్ నిప్సె అనే ఫ్రెంచ్ పరిశోధకుడు 1825లో తొలిసారి ఫొటోను ప్రింట్ చేశాడని చెబుతారు. వెంటనే ఆ ఫొటోలను అవసరాలకు అనుగుణంగా మార్చుకునే ప్రయత్నాలు మొదలైపోయాయి. నెగెటివ్ రీల్ ను కత్తిరించి, డబుల్ ఎక్స్పోజ్ చేసి, గీతలు గీసి.. రకరకాలుగా మార్ఫింగ్ చేసేవాళ్లు. నాజీ ప్రచారకర్త గోబెల్స్ కూడా ఈ మార్గాన్ని అనుసరించిన వారిలో ఒకరు. కానీ జాగ్రత్తగా పరిశీలిస్తే, ఆ బండారం తేలిపోయేది. అంతలోనే వీడియోలు వచ్చాయి. ఇక మార్ఫింగ్ అసాధ్యమనే అనుకున్నారు. కానీ ‘డీప్ ఫేకింగ్’ దాన్ని సాధ్యం చేసింది. ముఖ కవళికలు నుంచి గొంతుతో సహా అన్నింటినీ నిజమే అనేంతగా భ్రమింపచేస్తున్నది. పుతిన్ అమెరికాను బెదిరిస్తున్నట్టు కనిపించినా, ఒబామాను ఖైదీలా చూపించినా, అమెరికన్ సెనెట్ స్పీకర్ నాన్సీ పెలోసీ తాగినట్టు మాట్లాడినా, కంపెనీలో బాస్ రూపంలో ఉద్యోగిని మోసం చేసినా అవన్నీ వాస్తవమే అన్నంత నమ్మకంగా ఉంటున్నాయి. అదే ఈ డీప్ ఫేకింగ్ టాలెంట్. డీప్ ఫేకింగ్ లో ఆర్టిఫీషియల్ ఇంటెలిజెన్స్ లోని ఎన్కోడర్స్, డీకోడర్స్ సాంకేతికతను ఉపయోగిస్తారు. ఎన్కోడర్స్ రెండు చిత్రాల కదలికలను క్షుణ్నంగా పరిశీలించి, వాటి మధ్య తేడాలను పసిగడుతుంది. ఇక డీకోడర్స్ ముఖాలను మార్చేస్తుంది. ఇంతచేసినా కొంత లోటు ఉంటుంది. చూసే కళ్లకు అది డీప్ ఫేకింగ్ ఏమో అన్న అనుమానం వచ్చేస్తుంది. అందుకే Generative Adversarial Network అనే మరో సాంకేతికతను ఉపయోగించి డీప్ ఫేక్ వీడియోను మరింత సహజంగా ఉండేలా మార్చేస్తున్నారు.
డీప్ ఫేక్తో సవాలక్ష సమస్యలు రోజూ ప్రపంచంలో తలెత్తుతూనే ఉంటాయి. ఫలానా సమస్యే వస్తుందని చెప్పడానికి వీల్లేదు. ఇది ఓ నకిలీ సామ్రాజ్యం. తారలు లేకుండానే వాళ్ల సినిమాలు రూపొందించవచ్చు. అమాయకుల్ని నేరాల్లో ఇరికించవచ్చు. ఎవర్నయినా బ్లాక్ మెయిల్ చేయవచ్చు. కళల నుంచి ప్రకటనల వరకు ఎవరి డూప్ నైనా నిజమే అన్నంత భ్రమ కల్పించవచ్చు. అంతదాకా ఎందుకు, సీటీ స్కాన్లను సైతం డీప్ ఫేక్ ద్వారా మార్చేయవచ్చని ఈమధ్యే జరిగిన ఓ పరిశోధన నిరూపించింది. అయితే ఇంకేముంది, మెడికల్ మాఫియా.. లేని అనారోగ్యం ఉన్నట్లుగా చూపించగలదు. హ్యాకర్లు కీలకరికార్డులను చెరిపేయగలరు.
ఈ పెనురాకాసి పోర్న్ వ్యాపారములో కూడా కీలక భూమిక పోషిస్తున్నది. 2017 స్టార్ వార్స్ సిరీస్లో నటించిన ఓ ప్రముఖ నటి పోర్న్ వీడియోలను రెడిట్ వెబ్సైట్లో చూసి జనం ఆశ్చర్యపోయారు. అది డీప్ ఫేక్ వీడియో అని తర్వాత తెలిసింది. ఇప్పటికీ ఈ డీప్ ఫేక్ ప్రక్రియ, పోర్న్ రంగంలోనే ఎక్కువగా కనిపిస్తున్నది. 2019లో జరిగిన ఓ పరిశోధనలో… ఆన్లైన్లో కనిపించే డీప్ ఫేక్ వీడియోల్లో 96 శాతం పోర్న్ వీడియోలే అని తేలింది. వాటికి ఉండే డిమాండ్ మాత్రమే ఇందుకు కారణం కాదు. సెలెబ్రిటీలు, మరీ ముఖ్యంగా నటులకు సంబంధించిన వీడియోలు విస్తృతంగా అందుబాటులో ఉంటాయి. ఓ వ్యక్తికి సంబంధించి ఎన్ని చిత్రాలు అందుబాటులో ఉంటే.. డీప్ ఫేక్ ప్రక్రియ అంత సులభం అవుతుంది. ఇలాంటి అనైతిక వీడియోలను అనుమతించం అంటూ పోర్న్హబ్ లాంటి సంస్థలు ప్రకటించినా, పరిస్థితిలో పెద్దగా మార్పు లేదు. పైగా రివెంజ్ పోర్న్ అనే సూత్రానికి కూడా ఈ డీప్ ఫేక్ తోడవుతున్నది. పగ తీర్చుకోవాలనుకునే వారి వ్యక్తిగత చిత్రాలను బజారున పెట్టడమే.. రివెంజ్ పోర్న్ ప్రధాన ఉద్దేశ్యం. వ్యక్తిగత చిత్రాలు లేకపోయినా సరే.. డీప్ ఫేక్ సాయంతో పోర్న్ చిత్రాలు సృష్టించవచ్చు. నగ్న చిత్రాలు రూపొందించేందుకు ప్రత్యేక యాప్స్ సిద్ధంగా ఉన్నాయి. ఒక్క క్లిక్ చాలు.. జీవితాలతో ఆడుకోవచ్చు.
ఈ డీప్ ఫేక్ భూతం ఎన్నో ఆర్థిక మోసాలకు ఊతం ఇచ్చింది. 2019లో ఇంగ్లండ్కు చెందిన ఒక ఉద్యోగికి ఫోన్ వచ్చింది. అవతలివైపు జర్మనీ నుంచి బాస్ మాట్లాడుతున్నాడు. ఒక పంపిణీదారుడికి వెంటనే మూడుకోట్ల రూపాయలు పంపమని ఆదేశించాడు. వెంటనే ఉద్యోగి ఆ నగదును బదిలీ చేసేశాడు. మరో లావాదేవీ కోసం.. ఇంకోసారి ఫోన్ వచ్చేసరికి ఎందుకో ఆ ఉద్యోగికి ఈసారి అనుమానం వచ్చింది. తను మోసపోయానని గ్రహించాడు. ‘ఆ గొంతులో జర్మన్ యాస, మాట తీరు అచ్చం రోజూ నేను మాట్లాడే బాస్లాగే ఉంది’ అని వాపోయాడు ఆ ఉద్యోగి. గొంతును మాత్రమే అనుకరించగలిగే ఈ ప్రక్రియకు ‘ఆడియో డీప్ ఫేక్’ అని పేరు. ఇక దీనికి వీడియో కూడా జోడిస్తే చెప్పేదేముంది. ఇది ఆర్థిక మోసాలకే పరిమితం కాదు. బెదిరించో, భయపెట్టో ఎదుటి వారితో ఎలాంటి పని అయినా చేయించుకునే ప్రమాదాన్ని కలిగిస్తుంది.
అలాగే రాజకీయా నాయకులకు కూడా ముచ్చమటలు పట్టించింది ఈ టెక్నాలజీ. ఆ మధ్య జరిగిన అమెరికా అధ్యక్ష ఎన్నికల్లో…జో బైడెన్ అవాకులు చెవాకులు పేలినట్టు డీప్ ఫేక్ వీడియోలు వచ్చాయి. గత రెండు సంవత్సరాల్లో, ప్రత్యర్థులను రాజకీయంగా దెబ్బతీసే విషయంలో ఇలాంటి వీడియోలు చాలానే ట్రెండ్ అయ్యాయి. ఎంతోకొంత ప్రభావం చూపాయి కూడా. డీప్ ఫేక్ను నేతలు తమ స్వలాభం కోసం వాడుకున్న సందర్భాలూ ఉన్నాయి. 2020 ఢిల్లీ అసెంబ్లీ ఎన్నికల్లో, స్థానిక భాషలో మాట్లాడిన ఓ అభ్యర్థి ప్రసంగాన్ని ఇంగ్లిషులో చూపేందుకు డీప్ ఫేక్ టెక్నాలజీనే వాడారు. ఇదీ వివరంగా డీప్ ఫేక్ కథ. దీనివల్ల లాభనష్టాలు ఎలా ఉన్నా.. మన కళ్ల ముందే మెదిలే వీడియోల పట్ల అభిప్రాయాలను మార్చేయబోతున్నది. ‘ఇప్పుడు సమస్య కేవలం నకిలీ వీడియోల గురించే కాదు.. దేన్ని నమ్మాలో దేన్ని నమ్మకూడదో తెలియని అనిశ్చితే అసలైన సవాలు’ అంటారు న్యూకేజిల్ విశ్వవిద్యాలయానికి చెందిన లిలియన్ ఎడ్వర్డ్స్. దీంతో ఎవరైనా కెమెరా ముందు పట్టుబడినా కూడా.. ‘ఇది డీప్ ఫేక్’ అంటూ బుకాయించేయవచ్చు. అది నిజమా, కాదా అనే నిర్ధారణలో కాలం గడిచిపోతుంది. తప్పుచేసే రాజకీయ నాయకులకు, నటీనటులకు ఇది చాలా చక్కగా ఉపయోగపడుతుంది. ఎందుకంటే అది నేను కాదని తప్పించుకోవచ్చు.
దీనిని ఎలా గుర్తించాలి, దీని బారిన పడకుండా తీసుకోవల్సిన జాగ్రత్తలేవో తెలుసుకుందాం. కొంచం జాగ్రత్తగా గమనిస్తే కొన్ని డీప్ ఫేక్లను కనిపెట్టడం పెద్ద కష్టమేం కాదు. డీప్ ఫేక్ వీడియోల్లో కళ్లు ఆర్పడం కాస్త అసహజంగా ఉంటుంది. అసలు కనురెప్పలు వేయకుండానో, అతిగా కళ్లు ఆర్పినట్లుగానో కనిపిస్తాయి. అక్కడ చుట్టూ ఉన్న వాతావరణంతో పోల్చినప్పుడు లొకేషన్, బ్యాగ్రౌండ్ బాగా కనపడి, మొహం మాత్రం కాంతివిహీనంగా కనిపిస్తుంది. మూలంలో ఉన్న వీడియోలోని వెలుతురునే డీప్ ఫేక్ సాంకేతికత తీసుకుంటుంది. అందులో మరో వ్యక్తి శరీరాన్ని చేర్చినప్పుడు… వెలుతురులో వ్యత్యాసం కనిపించవచ్చు. వీడియోను మహా నైపుణ్యంగా డీప్ ఫేక్ చేసినవాళ్లు, ఆడియో విషయంలో జాగ్రత్తపడకపోవచ్చు. దాంతో దృశ్యం, మాటల మధ్య సింక్ కుదరదు. మన రూపురేఖలతో తయారుచేసిన డీప్ ఫేక్ వీడియోలతో ఎవరైనా మనల్ని బ్లాక్మెయిల్ చేయవచ్చు. మనం వాటికి లొంగకపోయినా.. ఎంతోకొంత మానసిక క్షోభకు గురిచేస్తాయి. అసలు ఈ పరిస్థితి రాకూడదూ అంటే కొన్ని జాగ్రత్తలు తీసుకోవాల్సిందే.. సోషల్ మీడియాలో వ్యక్తిగత ఫొటోలు.. మరీ ముఖ్యంగా పిల్లల ఫొటోలు పెట్టడం ఆపేయాలి. ఏడాదికి కొన్ని వందల రూపాయలు మాత్రమే ఖర్చయ్యే యాంటీవైరస్ విషయంలో కక్కుర్తి వద్దు. డబ్బు ఖర్చుపెట్టడం ఎందుకు అనుకుంటే.. హ్యాకర్లు చాలా తేలికగా మన సిస్టమ్లోకి చొరబడే అవకాశం ఉంది. అదే జరిగితే, వ్యక్తిగత చిత్రాలు, వివరాలు వారి చేతిలోకి వెళ్లినట్టే. పోర్న్ వంటి చట్టవిరుద్ధమైన సైట్ల ద్వారా మన మొబైల్స్/ కంప్యూటర్లోకి హ్యాకర్లు చొరబడే ప్రమాదం ఎక్కువ. వాటి జోలికి పోవడం నష్టమే. యాంటీవైరస్ హెచ్చరించే సైట్లలోకి కూడా వెళ్లకూడదు. ఇలాంటి కాల్స్/సందేశాలకు లొంగడం మొదలైతే మొత్తం దివాళా తీసిన తర్వాత కూడా వాళ్లు మనల్ని విడిచిపెట్టరని అర్థం చేసుకోవాలి. ముందే సైబర్ క్రైమ్ బ్రాంచ్ అధికారులను సంప్రదించాలి.
ఇంతటి ప్రమాదం జరుగుతుంటే దీనిని నిలువరించే ప్రయత్నాలు చేయలేదా అనే అనుమానం మీలో కలుగవచ్చు. కంప్యూటర్ దిగ్గజ సంస్థలన్నీ కూడా ఈ డీప్ ఫేక్ ప్రమాదాన్ని మొదట్లోనే పసిగట్టి, దాన్ని అదుపుచేసే ప్రణాళికలు రూపొందిస్తున్నాయి. ఇలాంటి వీడియోలను గుర్తించేందుకు మైక్రోసాఫ్ట్ ఒక సాఫ్ట్వేర్ను తయారు చేస్తున్నది. 2019లో ఫేస్బుక్ Deepfake Detection Challenge ప్రకటించింది. తప్పుడు వీడియోలను కనిపెట్టే సాఫ్ట్వేర్ రూపొందించినవారికి ఐదులక్షల డాలర్ల నజరానా ప్రకటించింది. Sensity అనే వెబ్సైట్ డీప్ ఫేక్ వీడియోలను పసిగట్టేందుకు ఉపయోగపడుతున్నది. ‘ఆపరేషన్ మినర్వా’ అనే మరో ప్రయత్నం అల్గారిథమ్స్ సాయంతో వీడియోలో మార్పుల్ని పసిగట్టే ప్రాజెక్టు రూపొందిస్తున్నది. రాబోయే రోజుల్లో నకిలీ కరెన్సీని పసిగట్టినంత సులభంగా, నకిలీ వీడియోలను కనిపెట్టేయవచ్చన్నది సాంకేతిక నిపుణుల వాదన.
దీనిని సరైన మార్గంలో అనుసరించాలే కానీ మంచి విప్లవాత్మక మార్పులను ప్రపంచానికి అందించవచ్చు.
2020లో ఫ్లోరిడాలోని ఓ హైస్కూల్ పూర్వవిద్యార్థి… పాఠశాల ఆవరణలోకి చొరబడి విచక్షణారహితంగా కాల్పులు జరిపాడు. అమెరికా చరిత్రలోనే అత్యంత దురదృష్టకరమైన పాఠశాల ప్రమాదంగా దీన్ని పేర్కొంటారు. ఈ ఘటనలో పదిహేడు మంది అమాయకులు బలైపోయారు. వారిలో జోక్విన్ అలివర్ ఒకరు. ఈ సంఘటన అలివర్ తల్లిదండ్రుల మనసును కలిచివేసింది. ఇలాంటి వేదన మరే కుటుంబానికీ కలగకూడదని నిశ్చయించుకున్నారు. గన్ కల్చర్కు వ్యతిరేకంగా నిలబడమంటూ తన కొడుకు అభ్యర్థిస్తున్నట్టుగా ఓ డీప్ ఫేక్ వీడియోను రూపొందించారు. ఈ వీడియో లక్షలమంది మనసుల్ని తాకింది. డీప్ ఫేక్తో ఇలాంటి ఉపయోగాలెన్నో ఉన్నాయి. తరగతి గదిలో జూలియస్ సీజర్ తాను సాధించిన వివరాలు చెబితే, ప్రసిద్ద పోయెట్ విలియం షేక్స్పియర్ తన నాటకాల గురించి స్వయంగా వివరిస్తే..దాని ప్రభావమే వేరు కదా! విద్యా విధానాన్ని ‘డీప్ ఫేక్’ మరింత ఆకర్షణీయంగా మార్చేస్తుంది. నటి కిమ్ కర్దాషిన్.. చనిపోయిన తన తండ్రి రూపాన్ని తిరిగి సృష్టించుకుని సంతోషపడి పోయింది. ఈ సాంకేతికత ద్వారా దివంగతులైన ఆత్మీయులను చూసుకోవచ్చు. Solo: A Star Wars Story సినిమాలో తమ అభిమాన నటుడు హారిసన్ ఫోర్డ్ ఉంటే బాగుండు అనిపించింది ఫ్యాన్స్కు. దాంతో ఓ పాత్రకు తన మొహాన్ని డీప్ ఫేక్ చేసి తృప్తిపడ్డారు. హీరోల చిన్నప్పటి సీన్లు, వాళ్ల పోరాట సన్నివేశాలు చిత్రీకరించే సందర్భాలన్నిటిలోనూ డీప్ ఫేక్ వాడవచ్చు. మార్కెటింగ్కు డీప్ ఫేక్ కొత్త అవకాశం. అభిమాన సెలెబ్రిటీలు నేరుగా మనతో మాట్లాడుతున్నట్టు, ఎప్పటికప్పుడు కొత్త ఉత్పత్తులు పరిచయం చేస్తున్నట్టు అనుభూతిని కలిగించవచ్చు.
ఇప్పుడు చెప్పుకున్నది ఒక ఎత్తైతే ఇప్పుడు చెప్పుకోబోయేది మరో ఎత్తు. అదే షాలో ఫేక్.. డీప్ ఫేకింగ్ చేయాలంటే ఆధునిక సాంకేతికత మీద పట్టు ఉండాలి. శక్తిమంతమైన కంప్యూటర్లు ఉండాలి. కానీ ఇంత శ్రమించకుండా, ఒక వీడియోకు చిన్నపాటి మార్పులు చేసి తప్పుడు అభిప్రాయాన్ని కల్పించడమే… షాలో ఫేకింగ్. దీనికి ఎడిటింగ్లో ప్రాథమిక పరిజ్ఞానం ఉంటే చాలు. ఉదాహరణకు అమెరికన్ సెనెట్ స్పీకర్ నాన్సీ పెలోసీ.. ఒక ఇంటర్వ్యూలో తడబడుతూ మాట్లాడుతున్న వీడియో విస్తృతంగా ప్రచారంలోకి వచ్చింది. ఒక్క ఫేస్బుక్లోనే 25లక్షల మంది ఈ వీడియోను చూశారు. ఈ వీడియోను చూస్తే, నాన్సీ చిత్తుగా తాగి మాట్లాడుతున్న భావన కలుగుతుంది. నాన్సీ అంటే చిరాకుపడే ట్రంప్, ఉత్సాహంగా ఈ వీడియోను ప్రచారం చేశాడు. చివరికి తేలింది ఏమిటంటే… ఈ వీడియో వేగాన్ని కాస్త తగ్గించడం వల్ల, నాన్సీ మాట తడబడిన అభిప్రాయం కలిగింది. నిజం బయటికి వచ్చేసరికి, జరగాల్సిన నష్టం జరిగిపోయింది.
పైన తెలుసుకున్న టెక్నాలజీలో భాగంగానే సింథటిక్ మీడియా కూడా ఒకటి. ఇది డీప్ ఫేక్ లాగానే అయితే మనుషులను చిత్రీకరించదు. మనిషిని అనుకరిస్తూ, కృత్రిమంగా రూపొందించే ఏ మాట, సంగీతం, రూపం, సాహిత్యం అయినా సరే సింథటిక్ మీడియా కిందికి వస్తుంది. ఇదొక విస్తృతమైన రంగం. వందల సంవత్సరాల క్రితమే చిన్నపాటి యంత్రాల సాయంతో రూపొందించిన సంగీతం కూడా సింథటిక్ మీడియా కిందికే వస్తుంది. ఈ ప్రక్రియను ఎలా ఉపయోగించుకుంటాం అనేదాని మీద లాభనష్టాలు ఆధారపడి ఉంటాయి. 15.ai ఆర్టిఫీషియల్ ఇంటెలిజెన్స్ అనే సాంకేతికత ద్వారా భావోద్వేగాలతో కూడిన గాత్రాన్ని సృష్టించవచ్చు. కార్టూన్ పాత్రల నుంచి, అనువాద చిత్రాల వరకూ డబ్బింగ్ అవసరాల కోసం దీన్ని ఉపయోగించుకోవచ్చు.
దీని కోవలోకి వచ్చే మరో మాధ్యమం సాక్ పపెట్. అలివర్ టేలర్.. ఇంగ్లండ్లోని బర్మింగ్హామ్ విశ్వవిద్యాలయానికి చెందిన విద్యార్థిగా వివిధ పత్రికలకు తనను పరిచయం చేసుకున్నాడు. ఎన్నో వివాదాస్పద వ్యాసాలు రాశాడు. ఎవరా ఈ జర్నలిస్టు అని శోధిస్తే… ఆ పేరుతో ఎవరూ లేరని తేలింది. ఇలా తప్పుడు ఉనికితో నచ్చినట్టు రాయడాన్ని ‘సాక్ పపెట్’ అని పిలుస్తారు. ఇది కూడా డీప్ ఫేక్ కిందికే వస్తుంది. ఉద్యోగులు తమ సొంత కంపెనీ మీదే అభియోగాలు చేయడం, ద్వేషంతో బురద చల్లడం.. ఇలాంటి కోవలోకే వస్తాయి. దీనికోసం ఎవరి ఫొటో వాడాలి అన్న సమస్య ఇప్పుడు లేదు. this person does not exist.com లాంటి వెబ్సైట్లు… అసలు ఉనికిలో లేని మానవ రూపాలను కృత్రిమ మేధ ద్వారా రూపొందించి ఇస్తున్నాయి.
ఏది ఏమైనా సాంకేతికతను దేశాభివృద్దికి తోర్పడేలా వినియోగించాలే కానీ ఇలా చెడు సాహసాలకు, ఒకరి పరువు ప్రతిష్టలకు విఘాతం కల్గించేందుకు వినియోగించడం ఏమాత్రం నైతికత అనిపించుకోదు అని చెప్పాలి.