ভারতের নির্বাচন এবং কৃত্রিম বুদ্ধিমত্তা

প্রদীপ সাহা

প্রকাশ : ২০ মে ২০২৪, ০০:০০ | প্রিন্ট সংস্করণ

নভেম্বর ২০২৩ সালে ভারতের দক্ষিণাঞ্চলীয় রাজ্য তামিলনাড়ুর বাসিন্দা মুরলীকৃষ্ণন চিন্নাদুরাই ব্রিটেনে এক তামিল অনুষ্ঠানের লাইভ সম্প্রচার দেখছিলেন। তিনি দেখলেন, এলটিটিই বা লিবারেশন টাইগার্স অব তামিল ইলমের প্রধান ভেলুপিল্লাই প্রভাকরণের মেয়ে দুয়ারাকা বক্তব্য পেশ করছেন।

দুয়ারাকার মৃত্যু হয়েছে এক দশকেরও আগে। ২০০৯ সালে শ্রীলঙ্কার গৃহযুদ্ধের সমাপ্তির দিনগুলোতে এক বিমান হামলায় ২৩ বছর বয়সি এ নারীর মৃত্যু হয়। তার মৃতদেহ খুঁজে পাওয়া যায়নি। অথচ ভিডিওতে তাকে দেখা যাচ্ছিল একেবারে চোখের সামনে।

বিশ্বের বিভিন্ন প্রান্তে থাকা তামিলদের তিনি আহ্বান জানাচ্ছেন, স্বাধীনতার লক্ষ্যে রাজনৈতিক সংগ্রামকে এগিয়ে নিয়ে যাওয়ার জন্য। তিনি ভিডিওটি খুঁটিয়ে খুঁটিয়ে দেখেন। এরপরই চিন্নাদুরাই বুঝতে পারেন- ভিডিওতে দুয়ারাকার যে ছবি দেখানো হচ্ছে, সেটি আসলে কৃত্রিম বুদ্ধিমত্তা বা এআই দিয়ে তৈরি। তখনই পুরোবিষয়টি তার কাছে ¯পষ্ট হয়ে যায়। তিনি বুঝতে পারেন, এই ভিডিওর মাধ্যমে গণ্ডগোল বাঁধানোর চেষ্টা চলছে। তিনি বলেন, ‘এটা তামিলনাড়ুতে একটা আবেগের ইস্যু। এ পরিস্থিতিতে ভুল তথ্য দ্রুত ছড়িয়ে পড়তে পারে।’

১৯ এপ্রিল থেকে ১ জুন ২০২৪ ভারতের ১৮তম লোকসভা নির্বাচন চলছে। ভারতে যে সময় নির্বাচন চলছে, তখন কৃত্রিম বুদ্ধিমত্তা বা এআই-এর সাহায্যে তৈরি সবকিছু এড়ানো অসম্ভব। সেটা ভিডিও হোক বা বিভিন্ন ভারতীয় ভাষায় তৈরি অডিও বার্তা কিংবা প্রার্থীর কণ্ঠস্বরে ভোটারদের কাছে করা স্বয়ংক্রিয় ফোন কল হোক। ভারতের শহীদ শেখ একজন কনটেন্ট ক্রিয়েটর। তার কাছে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে কনটেন্ট তৈরির বিষয়টি বেশ মজাদার। বিশেষত সেসব কনটেন্ট যেখানে ভারতীয় রাজনীতিবিদদের এক নতুন অবতারে দেখানো হয়েছে, যেমনটা আগে কখনও দেখা যায়নি। উদাহরণস্বরূপ অ্যাথলেইজার (খেলোয়াড়দের পোশাক এবং দৈনন্দিন পরিধানের মিশেলে তৈরি এক ধরনের পোশাক) পরা রাজনৈতিক নেতা কিম্বা নাচণ্ডগানে মশগুল রাজনীতিবিদ। ধীরে ধীরে যেভাবে এআই-এর টুলগুলো আরো উন্নত হয়ে উঠেছে; নতুন এক চিন্তা ঘিরে ধরেছে বিশেষজ্ঞদের। এ চিন্তার কারণ হলো কৃত্রিম বুদ্ধিমত্তা আরো সুরুচিসম্পন্ন হয়ে ওঠার সঙ্গে সঙ্গে ভুয়া তথ্যকে সঠিক বলে দাবি জানানো। সোশ্যাল মিডিয়ার যুগে এটা দাবানলের মতো ছড়িয়ে পড়তে পারে এবং পুরো দেশে এ আগুন ছড়িয়ে পড়ার ভয় রয়েছে।

সাম্প্রতিক প্রযুক্তিগত উন্নতির সুবিধা নেওয়ার ক্ষেত্রে ভারতীয় রাজনৈতিক দলগুলোই প্রথম নয়। সীমান্তের ওপারে পাকিস্তানে একই প্রযুক্তি ব্যবহার করে এক রাজনৈতিক সমাবেশে সম্বোধন করেছিলেন দেশটির সাবেক প্রধানমন্ত্রী ইমরান খান। আর খোদ ভারতে প্রধানমন্ত্রী নরেন্দ্র মোদি এরইমধ্যে এই উন্নত প্রযুক্তি ব্যবহার করে এসেছেন কার্যকর নির্বাচনি প্রচার চালানোর জন্য। তিনি হিন্দিতে জনতাকে সম্বোধন করেন এবং মুহূর্তের মধ্যে তার সেই বক্তব্য তামিলে অনুবাদ করে দেয় কৃত্রিম বুদ্ধিমত্তার সাহায্যে তৈরি ‘ভাষিণী’ (এআই টুল)। এই ‘ভাষিণী’ ভারত সরকারের তৈরি করা টুল। এই কৌশলগুলো ব্যবহার করা যেতে পারে শব্দ এবং বার্তা হেরফের করার ক্ষেত্রেও।

এপ্রিল মাসেই দুটো ভিডিও ভাইরাল হয়েছিল, যেখানে বলিউড তারকা রণবীর সিং এবং আমির খানকে কংগ্রেসের হয়ে প্রচার করতে দেখা যায়। ওই ভিডিও ‘ডিপফেক’ জানিয়ে দুজন অভিনেতাই পুলিশের কাছে অভিযোগ করেছিলেন। উল্লেখ করেছিলেন, তাদের অনুমতি ছাড়াই ওই ভিডিও বানানো হয়েছিল। এরপরই গত ২৯ এপ্রিল নরেন্দ্র মোদি এ প্রযুক্তির অপব্যবহার সম্পর্কে উদ্বেগ প্রকাশ করেছিলেন। অথচ কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে তার এবং বিজেপির অন্যান্য নেতাদের বক্তব্য বিকৃত করার বিষয়ে উদ্বেগ জানিয়েছিলেন স্বয়ং প্রধানমন্ত্রী।

পরের দিন এ ঘটনায় পুলিশ দু’জনকে গ্রেপ্তার করে। স্বরাষ্ট্রমন্ত্রী অমিত শাহের ভিডিও কেটেছেঁটে উপস্থাপন করার অভিযোগ ছিল তাদের বিরুদ্ধে। যাদের গ্রেপ্তার করা হয়েছিল, তাদের মধ্যে একজন কংগ্রেস কর্মী এবং অন্যজন আম আদমি পার্টির কর্মী। অন্যদিকে, কেন্দ্রে ক্ষমতাসীন ভারতীয় জনতা পার্টির বিরুদ্ধেও একই অভিযোগ তুলছে বিরোধী দলগুলো।

সংশ্লিষ্টরা মনে করেন, এ ঘটনায় গ্রেপ্তার করা হলেও জাল এবং বিকৃত কনটেন্টের সঙ্গে মোকাবিলা করার জন্য তেমন কোনো আইনি ব্যবস্থা ভারতে নেই। আপনি যদি কোনো ভুল কাজ করতে গিয়ে ধরা পড়েন, তাহলে আপনাকে হালকা শাস্তি দিয়ে ছেড়ে দেওয়া হবে। এ পরিস্থিতিতে ব্যক্তিগত আদর্শ এবং নীতির ওপর ভিত্তি করে কোনো কাজ করবেন আর কোনটা করবেন না, সেই সিদ্ধান্ত নিয়ে থাকেন কনটেন্ট ক্রিয়েটররা। রাজনীতিবিদরা কনটেন্ট ক্রিয়েটরদের বিরোধীদের অশ্লীল ছবি এবং বিকৃত ভিডিও তৈরি করার কথাও বলেছেন। উদ্দেশ্য একটাই- রাজনৈতিক প্রতিপক্ষের ভাবমূর্তি জনতার কাছে নষ্ট করা। এ বিষয়ে নিজের অভিজ্ঞতার কথা বলেছেন ‘দ্য ইন্ডিয়ান ডিপফেকার’ (টিআইডি)-এর প্রতিষ্ঠাতা দিব্যেন্দ্র সিং জাদাউন। টিআইডি বিনামূল্যে কৃত্রিম বুদ্ধিমত্তা সফটওয়্যার ব্যবহার করে রাজনীতিবিদদের জন্য প্রচারমূলক কনটেন্ট তৈরি করতে সাহায্য করে। তাকেও একবার একটা আসল ভিডিওর ডিপফেক তৈরি করতে বলা হয়েছিল। এর কারণ আসল ভিডিওটা ব্যাপকভাবে শেয়ার করা হলে তাতে দৃশ্যমান রাজনীতিবিদের ভাবমূর্তি ক্ষুণ্ণ হতে পারে।

পশ্চিমবঙ্গের এক মার্কেটিং এজেন্সিতে কাজ করেন শাহিদ শেখ। তিনি বলেন, একজন রাজনীতিবিদ কোনো প্রসঙ্গ ছাড়াই তার আঁকা নরেন্দ্র মোদির ছবি ব্যবহার করেছিলেন। ছবিটা কৃত্রিম বুদ্ধিমত্তার সাহায্যে তৈরি করা হয়েছে। এখন ডিপফেক কনটেন্ট তৈরি করা এতটাই সহজ হয়ে গেছে, যে-কেউ তা করতে পারে। আগে এ কাজটা করতে সাত-আট দিন সময় লাগত, এখন তিন মিনিটেই তৈরি হয়ে যায়- শুধু দরকার একটি কম্পিউটার। এদিকে দুই ব্যক্তির মধ্যে ভুয়া ফোন কলও তৈরি হয়েছে। এই ফোনালাপ যেকোনো দুই ব্যক্তির মধ্যে ছিল না- ছিল সাবেক মার্কিন প্রেসিডেন্টের মধ্যে! এতটা ঝুঁকি থাকা সত্ত্বেও ভারত প্রাথমিকভাবে বলেছিল, তারা কৃত্রিম বুদ্ধিমত্তা সম্পর্কিত আইন প্রণয়নের কথা ভাবছে না। তবে চিত্রটি বদলে যায় ২০২৪ সালের মার্চ মাসে। মার্চ মাসে এ ঘটনার পরই সরকার পদক্ষেপ নেয়। এটা ভারতের প্রযুক্তি আইনের লঙ্ঘন করা। এআই টুলের এমন কোনো উত্তর যা নির্বাচনি প্রক্রিয়াতে প্রভাব ফেলতে পারে, সে বিষয়েও প্রযুক্তি সংস্থাগুলোকে সতর্ক করা হয়েছিল। ফ্যাক্ট-চেকাররা জানান, ভুয়া কনটেন্ট প্রকাশ্যে আনাটা কঠিন কাজ হয়ে দাঁড়াচ্ছে। নির্বাচনের সময় যখন ভুল তথ্য ব্যাপকভাবে ছড়িয়ে পড়তে থাকে, তখন এ কাজটা আরো কঠিন হয়ে পড়ে।

ভারতের নির্বাচন কমিশন কৃত্রিম বুদ্ধিমত্তা নিয়ে প্রকাশ্যে নীরবতা পালন করছে। এর জন্য কোনো আইন নেই। কোনো রকম আইন-কানুন তৈরি করার বদলে তারা বিষয়টি প্রযুক্তি সংস্থাগুলোর স্বনিয়ন্ত্রণের ওপর ছেড়ে দিয়েছে। বিশেষজ্ঞরা জানিয়েছেন, এর কোনো সুনির্দিষ্ট সমাধানও নেই। কিন্তু এ মুহূর্তে যারা ভুয়া ভিডিও অন্যদের পাঠাচ্ছে, তাদের বিরুদ্ধে যদি ব্যবস্থা নেওয়া হয়, তাহলে হয়তো অন্যরা যাচাই না করা তথ্য শেয়ার করতে ভয় পাবে। ভারতের নির্বাচন সুন্দর ও সুষ্ঠুভাবে হোক- এটা সবারই প্রত্যাশা।

কলাম লেখক সাভার, ঢাকা-১৩৪০।