X
শনিবার, ২০ এপ্রিল ২০২৪
৭ বৈশাখ ১৪৩১

‘ডিপফেক’ কি বিপদ ডেকে আনতে পারে?

হিটলার এ. হালিম
৩০ নভেম্বর ২০২০, ২০:২২আপডেট : ০১ ডিসেম্বর ২০২০, ০০:৫৭

ডিপফেক টেকনোলজি (ছবি: ইন্টারনেট) ২০১৭ সালে ইউনিভার্সিটি অব ওয়াশিংটনের একদল গবেষক সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামার একটি ভিডিও বক্তব্য তৈরি করে। সেটা দেখে বোঝার উপায় থাকে না ভিডিওটি সত্যি নয়। মেশিন লার্নিং প্রযুক্তি ব্যবহার করে ওই ভিডিওটি তৈরি করা হয়েছিল। প্রযুক্তি সংশ্লিষ্টরা বলছেন, এটা হলো ‘ডিপফেক’।
মেশিন লার্নিং ব্যবহার করে সংশ্লিষ্ট কারও ছবি ও ডায়ালগ (সংলাপ) দিয়ে দিলে সংশ্লিষ্ট ছবির ব্যক্তিটির ভিডিও তৈরি হয়ে যাবে। যেখানে দেখা যাবে—সংশ্লিষ্ট ব্যক্তি বক্তব্য রাখছেন, বক্তৃতা করছেন বা অন্যকোনও কিছু করছেন। এই প্রযুক্তি ব্যবহার করেই তৈরি করা সম্ভব অশ্লীল ভিডিও। যেকেউ কারও আক্রোশের শিকার হতে পারেন এই প্রযুক্তির অপব্যবহারে। 

সংশ্লিষ্ট খাতের বিশেষজ্ঞরা মনে করেন, ভালো কাজের জন্য এই প্রযুক্তির কথা ভাবা হলেও এটা যেকোনও সময় বড় ধরনের বিপদ ডেকে আনতে পারে। বিশেষ করে সামাজিক যোগাযোগমাধ্যম ও ইউটিউবকে কেন্দ্র করে বাড়তে পারে ডিপফেকের উপদ্রব। কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তির একটা শাখা হলো মেশিন লার্নিং। মেশিন লার্নিংয়ের একটি উপ-শাখা হলো ডিপফেক।

দেশে ডিপফেক নিয়ে গবেষণা করছে তথ্যপ্রযুক্তির গবেষণা প্রতিষ্ঠান প্রেনিউর ল্যাব। এর প্রতিষ্ঠাতা ও প্রধান নির্বাহী আরিফ নিজামী বাংলা ট্রিবিউনকে বলেন, ‘মেশিন লার্নিংয়ে মেশিন বলতে পারবে—একজন মানুষ কীভাবে কথা বলবে, হাসবে, বিভিন্ন অঙ্গভঙ্গি করবে। আমি শুধু একটা ছবি মেশিনে দিয়ে দেবো, আর কিছু ডায়ালগ লিখে দেবো। মেশিন ভিডিও তৈরি করে দেবে। ওই ভিডিও দেখলে মনে হবে সংশ্লিষ্ট ব্যক্তির ভিডিও।’ তিনি বলেন, ‘ভিডিওটি নিবিড়ভাবে দেখলে বোঝা যায় যে তা আসল না, নকল। অডিওতে তো বোঝার কোনও উপায়ই নেই।’  তিনি  উল্লেখ করেন, বিভিন্ন সময়ে অনেকের কথোপকথনের অডিও ফাঁসের ঘটনা আমরা শুনি। ভবিষ্যতে মেশিন লার্নিং ব্যবহার করে এসব  তৈরি করা হলে, বোঝার কোনও উপায় থাকবে না। তবে কেউ যদি  কারও কণ্ঠস্বর  ভালো বুঝে থাকেন, তাহলে তিনি তা চিহ্নিত করলেও করতে পারেন। আরিফ নিজামী জানান, কয়েকটি বিষয় ভালো করে খেয়াল করলে বোঝা যাবে ভিডিওটি ফেক না আসল। একটি হলো ফেক বা নকল ভিডিওতে মানুষের চোখের পাতা পড়ে না, বা চোখের পাতা পড়লেও অনেক গ্যাপ দিয়ে, যা মানুষের পক্ষে সম্ভব নয়। এছাড়া গলার মুভমেন্ট, ঘাড় বা হাতের নড়াচড়া ভালো করে খেয়াল করলেও বোঝা যাবে, ভিডিওটি আসল না নকল।

তিনি আরও জানান, টেক্সটের মাধ্যমেও এটা করা সম্ভব। রোবট কলাম লিখে দেবে, বোঝার উপায় থাকবে না এটা মানুষ না রোবট লিখেছে।  ফলে সেটা যে কারও নাম দিয়ে প্রকাশ করা সম্ভব। এসব ভবিষ্যতে বড় ধরনের সমস্যা তৈরি করতে পারে। সচেতনতা তৈরি করে এসব ঠেকানো যেতে পারে। ধরা যাক, কারও কোনও ভিডিও তৈরি করে ফেসবুকে বা ইউটিউবে প্রকাশ করা হলো। অনেকে দেখার ফলে তা ভাইরাল হয়ে গেলো।  হাজারো মানুষ তা দেখেও ফেললো।  ভিডিওটা আসল না নকল তা প্রমাণ করা অনেক সময়সাপেক্ষ বিষয়। প্রমাণ করতে করতেই অনেক সময় চলে যাবে। ততক্ষণে ব্যক্তির ইমেজ শেষ বা যা ক্ষতি হওয়ার তা হয়ে যাবে। এ বিষয়ে সবার জানাশোনা থাকলে এটা আর বেশি ছড়াতে পারবে না।

জার্মানির একটি গবেষণা প্রতিষ্ঠানের নাম হলো ডিপট্রেস। এ প্রতিষ্ঠানটি ডিপফেক চিহ্নিত করতে প্রযুক্তিগত সমাধান দেয়।  প্রতিষ্ঠানটির ২০১৮ সালে তৈরি  এক প্রতিবেদনে দেখা যায়, ওই বছর ডিপট্রেস ৭৯৬টি ডিপফেক চিহ্নিত করে। পরের বছর  ২০১৯ সালের প্রথম ৭ মাসে ১৪ হাজার ৬৭৮টি ডিপফেক চিহ্নিত করে।  এসব ডিপফেক কেসের মধ্যে ৯৬ শতাংশ ছিল অসম্মতিসূচক অশ্লীল কনটেন্ট, যা একচেটিয়া নারী শরীরকে চিহ্নিত করেছে।   

সংশ্লিষ্টরা বলছেন, কৃত্রিম বুদ্ধিমত্তার (এআই) প্রয়োগ আমাদের সমাজে ক্রমবর্ধমান ভূমিকা পালন করছে। কিন্তু এই নতুন প্রযুক্তির সম্ভাবনার হাত ধরে ঝুঁকিও আসে। এমন একটি ঝুঁকি হলো—ইচ্ছাকৃত মিথ্যা তথ্য ছড়িয়ে দিতে প্রযুক্তির অপব্যবহার। যদিও রাজনৈতিকভাবে অনুপ্রাণিত গুজবের বিস্তার নিশ্চিতভাবে কোনও নতুন ঘটনা নয়। প্রযুক্তিগত উন্নয়নে কারসাজি করে কন্টেন্ট সৃষ্টি এবং বিতরণকে অনেক সহজ এবং আগের চেয়ে অনেক কার্যকর করে দিয়েছে। এআই অ্যালগরিদম ব্যবহারের মাধ্যমে কোনও বিশেষ জ্ঞান ছাড়াই এখন ভিডিও দ্রুত মিথ্যায় পরিণত করা যায়, যাকে বলা হচ্ছে ডিপফেক।

প্রেনিউর ল্যাব ডিপফেক বিষয়ক একটি ই-বুক প্রকাশ করেছে ‘ডিপফেইকস ও গুজব’ নামে।  সেই বইয়ে উল্লেখ করা হয়েছে— ডিপফেক করা হয় গতিবিধির নমুনায়, কারসাজি করা হয় কণ্ঠ ও মুখের অভিব্যক্তি দিয়ে। ছবির কারসাজি করা হয় নগ্নতা ও কৃত্রিম মুখমণ্ডল তৈরি করে।  এছাড়া এআই উৎপন্ন টেক্সটের মাধ্যমে। বইয়ে আরও উল্লেখ রয়েছে, ডিপফেক প্রাথমিকভাবে অডিও এবং ভিডিও কনটেন্টের জন্য ব্যবহার হতো। পরে এতে যুক্ত হয়েছে টেক্সট। এছাড়া বইয়ে ডিপফেক ও গুজব নিয়ে বিস্তারিত আলোচনা করা হয়েছে।

/এপিএইচ/এমওএফ/
সম্পর্কিত
সর্বশেষ খবর
ড্রোন হামলার কথা অস্বীকার করলো ইরান, তদন্ত চলছে
ড্রোন হামলার কথা অস্বীকার করলো ইরান, তদন্ত চলছে
শিল্পী সমিতির নির্বাচন, মিশা-ডিপজলে কুপোকাত কলি-নিপুণ
শিল্পী সমিতির নির্বাচন, মিশা-ডিপজলে কুপোকাত কলি-নিপুণ
ভাগ্নিকে শায়েস্তা করতে নাতিকে হত্যা
ভাগ্নিকে শায়েস্তা করতে নাতিকে হত্যা
৫ বছর বন্ধ সুন্দরবন টেক্সটাইল, সংকটে শ্রমিকরা
৫ বছর বন্ধ সুন্দরবন টেক্সটাইল, সংকটে শ্রমিকরা
সর্বাধিক পঠিত
বাড়ছে বীর মুক্তিযোদ্ধাদের সম্মানি, নতুন যোগ হচ্ছে স্বাধীনতা দিবসের ভাতা
বাড়ছে বীর মুক্তিযোদ্ধাদের সম্মানি, নতুন যোগ হচ্ছে স্বাধীনতা দিবসের ভাতা
ইরান ও ইসরায়েলের বক্তব্য অযৌক্তিক: এরদোয়ান
ইস্পাহানে হামলাইরান ও ইসরায়েলের বক্তব্য অযৌক্তিক: এরদোয়ান
উপজেলা চেয়ারম্যান প্রার্থীকে অপহরণের ঘটনায় ক্ষমা চাইলেন প্রতিমন্ত্রী
উপজেলা চেয়ারম্যান প্রার্থীকে অপহরণের ঘটনায় ক্ষমা চাইলেন প্রতিমন্ত্রী
ইরানে হামলা চালিয়েছে ইসরায়েল!
ইরানে হামলা চালিয়েছে ইসরায়েল!
সংঘাত বাড়াতে চায় না ইরান, ইসরায়েলকে জানিয়েছে রাশিয়া
সংঘাত বাড়াতে চায় না ইরান, ইসরায়েলকে জানিয়েছে রাশিয়া