Our Feeds


Sunday, April 11, 2021

www.shortnews.lk

VIDEO: ஒருவரை ஆபாசமாக சித்தரிக்கலாம்,.. குற்றவாளிகள் தப்பிக்கலாம்... நிரபராதிகள் சிக்கலாம்! - இலங்கையையும் அச்சுறுத்தும் #DeepFakes தொழில்நுட்பம்

 


ஒருவரின் ஒப்புதல் இல்லாமல் அவரை ஆபாசமாகச் சித்திரிக்கும் இத்தகைய தொழில்நுட்பங்களை நாம் எப்படி எதிர்கொள்ளப்போகிறோம் என்று தெரியவில்லை. நம் சமூகச் சூழல்களில் இது இன்னும் சிக்கலாகத்தான் இருக்கப்போகிறது.


இலங்கை உள்ளிட்ட நாடுகளை அச்சுறுத்தும் டீப் பேக் (DeepFack) தொழிநுற்பம் தொடர்பிலேயே இதில் நாம் தெரிந்து கொள்ளவிருக்கிறோம்.



கடந்த 10 வருடங்களில் செயற்கை நுண்ணறிவு (AI) சார்ந்த தொழில்நுட்பங்கள் புதிய உச்சங்களைத் தொட்டிருக்கின்றன. வெற்று தியரியாக இருந்த பல விஷயங்கள் இன்றிருக்கும் அதிகப்படியான கம்ப்யூட்டிங் சக்தியாலும், கொட்டிக்கிடக்கும் டேட்டாவாலும் முழுச் செயல்பாட்டுக்கு வந்துள்ளன. இதனால் இன்று ஸ்மார்ட் அசிஸ்டன்ட் தொடங்கி அன்றாட சமூக வலைதள பயன்பாடு வரை அனைத்திலும் செயற்கை நுண்ணறிவு பெரும் பங்காற்றி வருகிறது. இப்படிச் செயற்கை நுண்ணறிவால் பெரும் பயனடைந்த தொழில்நுட்பங்களில் ஒன்று 'இமேஜ் பிராசஸிங்'.



'Facial recognition' இன்று சர்வ சாதாரண விஷயமாக ஆகிவிட்டது. புகைப்படங்களை எளிதாக மாற்றியமைக்கும் டூல்களும் நல்ல வளர்ச்சியைக் கண்டுள்ளன. உங்களது தற்போதைய புகைப்படத்தைக் கொடுத்தால் நீங்கள் சிறுவராக இருந்தால் எப்படி இருப்பீர்கள், மற்ற பாலினத்தவராக இருந்தால் எப்படி இருப்பீர்கள், வயதானால் எப்படி இருப்பீர்கள் என்பதைக் காட்டும் Faceapp போன்ற மென்பொருள்கள் அனைத்துமே செயற்கை நுண்ணறிவு இல்லை என்றால் சாத்தியப்பட்டிருக்காது. மேலும், உலகிலேயே இல்லாத ஒருவரின் புகைப்படத்தை உருவாக்கும் தொழில்நுட்பமும் வளர்ந்திருக்கிறது. இப்படி நல்லது ஒரு பக்கம் இருக்க, இதே 'இமேஜ் பிராசஸிங்'கில் இருக்கும் செயற்கை நுண்ணறிவின் பாய்ச்சல் பல முக்கிய ஆபத்துகளையும் சவால்களையும் நம்முன் வைக்கிறது. அதில் முக்கியமானது 'டீப் ஃபேக்ஸ்' (deep fakes).kes).


செயற்கை நுண்ணறிவு மூலம் உருவாக்கப்படும் அச்சு அசல் உண்மை போலவே தோற்றமளிக்கும் போலி படங்கள் மற்றும் வீடியோக்களை 'டீப் ஃபேக்ஸ்' என்று அழைப்பர். இதன்மூலம் ஒருவரது முகத்தை அவரின் விருப்பம் இல்லாமலேயே ஒரு புகைப்படத்திலோ அல்லது டியோவிலோ இருக்கும் இன்னொரு நபரின் முகத்தின் மேல் பொருத்த முடியும். மற்றும் பல விஷயங்களும் செய்ய முடியும்.


இதில் இருக்கும் யாருமே உண்மையான மனிதர்கள் இல்லை

மேலுள்ள புகைப்படத்தில் இருக்கும் எவறுமே உண்மையான மனிதர்கள் இல்லை!



இப்படி உருவாக்கப்படும் படங்கள் மற்றும் வீடியோக்களால் நடக்கக்கூடிய குற்றங்கள் எண்ணில் அடங்காதவை. மனிதர்களால் உருவாக்கப்படும் மார்ஃபிங் படங்களிலேயே இன்று பல பிரச்னைகள் ஏற்படுகின்றன. சாதாரண மக்கள் பலரின் வாழ்வையும் சீரழித்திருக்கிறது இது. இதனால் தற்கொலைகளும் நடந்திருக்கின்றன.


இன்று செயற்கை நுண்ணறிவின் உதவியுடன் போலி படங்கள் மட்டுமன்றி போலி வீடியோக்கள் உருவாக்குவதும் மிக எளிதாக மாறியிக்கிறது. என்ன பேச வேண்டும் என்று டைப் செய்துகொடுத்துவிட்டால் போதும் அதை அப்படியே வீடியோவில் குறிப்பிட்ட ஒருவர் பேசுவதாக வீடியோ ரெடி செய்துகொடுக்கும் மென்பொருள்கள் உருவாகிவிட்டன. சமீபத்தில் ஃபேஸ்புக் நிறுவனர் மார்க் சக்கர்பெர்க் அவரே அவரைப் பற்றி அவதூறு பேசும் இப்படியான ஒரு டீப் ஃபேக் வீடியோ சமூக வலைதளங்களில் வைரலானது. இது போலி என்று குறிப்பிடப்பட்டு வெளியிடப்பட்டிருந்தாலும், திடீரென்று பார்ப்பவர்களுக்கு அது உண்மை என்றே தோன்றும். இது குறித்து அறிக்கை ஒன்றை வெளியிட்டாலும் தங்களது வரைமுறைகளை மீறவில்லை என அந்த வீடியோவை நீக்கவில்லை ஃபேஸ்புக். இதுதான் கூடுதல் அச்சத்தை விதைக்கிறது.


வெறுப்பரசியல் தலைதூக்கும் இந்தக் காலகட்டத்தில் இது பெரும் தாக்கத்தை உண்டாக்கும். வெறும் வாட்ஸ்அப் ஃபார்வர்டு வைத்து ஒருவரைக் குற்றவாளி எனத் தீர்மானித்து அவரை அடித்தே கொல்லும் நிலைதான் நம் நாட்டில் இருக்கிறது. இதில் உண்மையைப் போலவே இருக்கும் இந்தப் போலிப்படங்கள் மற்றும் வீடியோக்கள் இங்கு எந்த மாதிரியான தாக்கத்தை ஏற்படுத்த முடியும் என யோசித்துப்பாருங்கள். அவதூறு பரப்பும் ஃபார்வர்ட்களுக்கு பின்னிணைப்பாக இனி இவையும் உடன் செல்லும். பொய்கள் உண்மையாகும். வெறுப்புணர்ச்சி எளிதில் தூண்டப்படும்.


இதே வேகத்தில் சென்றால் நீதித்துறையிலும் இதன் தாக்கம் நிச்சயம் உணரப்படும். எது ஃபேக் எது ஒரிஜினல் எனக் கண்டுபிடிக்க முடியாத நிலை ஏற்பட்டால், வீடியோ ஆதாரங்கள் முற்றிலுமாக எடுத்துக்கொள்ளப்படாத சூழல்கூட உருவாகலாம். நிரபராதிகள் தண்டிக்கப்படலாம். குற்றவாளிகள் காப்பாற்றப்பட்டாலும். இவையெல்லாத்தையும்விட மோசமான விளைவுகளும் இருக்கின்றன.


முன்பு கூறியது போலவே மார்பிங் செய்யப்பட்ட புகைப்படங்களால் பெண்கள் பலரின் வாழ்வுகள் சீரழிந்துள்ளன. இப்போது இந்தத் தொழில்நுட்பம் அதை இன்னும் எளிதாக்குகிறது. பெண்களுக்கு எதிரான இது மாதிரியான சைபர் குற்றங்கள் இதற்கு முன்பு நடக்காததா என்று நீங்கள் கேட்கலாம். நடந்ததுதான், இதற்கு முன்பு போட்டோஷாப். அதற்கும்முன் சென்றால் ஆபாச ஓவியங்கள். பெண் பிரபலங்கள் எப்போதும் சந்திக்கும் இந்தப் பிரச்னை மாறாத கதைதான். ஆனால், இதில் புரிந்துகொள்ள வேண்டிய ஒன்று இருக்கிறது.


போட்டோஷாப் போன்ற டூல்களை சரியாகக் கையாள ஓரளவு திறனாவது இருக்க வேண்டும், பயிற்சி வேண்டும். அப்படியும் அவுட்புட் சரியாக வருமா என்பது சந்தேகம்தான். ஆனால், இந்த 'டீப் ஃபேக்' தொழில்நுட்பம் பல மணிநேர வேலையை சில நொடிகளில் முடித்து தந்துவிடுகிறது. இன்று சில பிசிறுகள் இருந்தாலும் காலம் செல்லச் செல்ல செயற்கை நுண்ணறிவு மேம்பட்டுக்கொண்டேதான் இருக்கும் என்பது சோகம். இதை தடைசெய்தாலும் சரி, நிறுத்திவைத்தாலும் சரி உருவாகிவிட்ட டிஜிட்டல் தொழில்நுட்பத்தை யாரால் கூண்டில் அடைக்க முடியும்? எப்படியும் வெளியில் வந்துவிடதான் செய்யும்.


இப்படி ஒருவரின் ஒப்புதல் இல்லாமல் அவரை ஆபாசமாக சித்திரிக்கும் இத்தகைய தொழில்நுட்பங்களை நாம் எப்படி எதிர்கொள்ளப்போகிறோம் என்பதில்தான் நம் வருங்காலம் இருக்கிறது. இந்தியா போன்ற சமூகச் சூழல்களில் இது இன்னும் சிக்கலாகத்தான் இருக்கப்போகிறது.


மேலும் மக்களிடம் இதற்கான விழிப்புணர்வு ஏற்பட்டால் மட்டுமே 'மெய்ப்பொருள் காண்பது' ஒரு விஷயமாகவே மாறும். இல்லையென்றால் இந்தப் போலி படங்கள் மூலம் பரப்பப்படும் பொய்கள் உண்மை என்றே நம்பப்படும்தான்.


அடோப் போன்ற நிறுவனங்கள் தொழில்நுட்பத்ததுக்கு தொழில்நுட்பமே பதில் என இதே செயற்கை நுண்ணறிவு மூலம் போலி படங்களைக் கண்டுபிடிக்கும் தொழில்நுட்பங்களை வடிவமைக்கும் முயற்சிகளில் களம் கண்டுள்ளன. வைரஸுக்கு ஆன்டிவைரஸ்கள் உருவாக்கப்படும் அதே கதைதான். வைரஸ்களுக்கேற்ப ஆன்டிவைரஸ்களும் வளர்ந்துகொண்டே இருப்பது அவசியம். ஆனால், இதைத் தாண்டியும் சில வைரஸ்கள் உள்ளே வந்துவிடதானே செய்கின்றன. அதே போலத்தான் இது என்றுமே முழு தீர்வாகாது.




மேலும் மக்களிடம் இதற்கான விழிப்புணர்வு ஏற்பட்டால் மட்டுமே 'மெய்ப்பொருள் காண்பது' ஒரு விஷயமாகவே மாறும். இல்லையென்றால் இந்தப் போலி படங்கள் மூலம் பரப்பப்படும் பொய்கள் உண்மை என்றே நம்பப்படும்தான். அதுவும் அவர்கள் உண்மையாக இருக்க வேண்டும் என்று நம்பும் அபத்தமான பொய்கள் இந்த போலி ஆதாரங்கள் உடன் வரும்போது நிச்சயம் நம்பப்படும்.

Subscribe to this Blog via Email :
Previous
Next Post »