এবার বাটপাড়ি মানুষের উপরেই ! AI লক্ষ লক্ষ টাকা হাতাবে আপনার ছবি-কণ্ঠস্বর অনুকরণ করেই

বাংলার খবর | বেস্ট কলকাতা নিউজ

বেস্ট কলকাতা নিউজ : মহাকালের রথের ঘোড়া যতই ছুটছে ততই যেন মানব জীবনের দখল চলে যাচ্ছে প্রযুক্তির হাতে। এক ক্লিকেই কেনাকাটা থেকে পড়াশোনা, বিনোদন, সবই এখন হাতের মুঠোয়। গতিময়তার এই জীবন প্রযুক্তির হাত ধরে যেন ক্রমেই সহজ থেকে আরও সহজতর হয়ে উঠছে। মানব বুদ্ধিমত্তার জায়গায় এখন প্রযুক্তির দুনিয়ায় অবাধ বিচরণ কৃত্রিম বুদ্ধিমত্তার । মানুষের করা কাজ, এখন চোখের পলকে করে দিচ্ছে একাধিক আর্টিফিসিয়াল ইন্টালিজেন্স নির্ভর টুল। ChatGPT, Google Bard এর মতো টুলগুলির কাজ দেখে চোখ কপালে তুলছে আম-আদমি। কিন্তু, বিজ্ঞানের এই চোখ ধাঁধানো অগ্রগতিতেই সিঁদুরে মেঘ দেখছেন অনেকে। অনেকে বলছেন, বিজ্ঞানের এই আশীর্বাদই দিনের শেষে অভিশাপ রূপে নেমে আসবে না তো? এদিকে এরইমধ্যে তথ্য-প্রযুক্তি নির্ভর অপরাধের পরিমাণ গোটা দেশেই লাফিয়ে লাফিয়ে বেড়ে চলেছে। সেখানে এই সমস্ত AI টুল ভুল হাতে পড়লে ঘনাতে পারে বড় বিপদ। আজ সে বিষয়েই বিশদে আলোচনা করা যাক।

এই সমস্ত আর্টিফিসিয়াল ইন্টালিজেন্স টুলকে ব্যবহার করে চাইলে বড় পরিমাণে তথ্য চুরি করা যেতে পারে। নিমেষে ফাঁকা হয়ে যেতে আপনার ব্যাঙ্ক অ্যাকাউন্ট। হাতিয়ে নেওয়া যেতে পারে কোনও ব্যক্তির ব্যক্তিগত তথ্য, সোশ্যাল মিডিয়ার ডেটা, পাসওয়ার্ড। এমনকী চুরি করা ছাড়াও এই টুলগুলির হাত ধরে কোনও ব্যক্তির অন্তর্জালে থাকা তথ্যের উপর নিমেষে দখল রাখা যেতে পারে। প্রয়োজনে সেই সমস্ত তথ্য বিবৃত করে আসাধু কাজে লাগানো যেতে পারে। ভুয়ো অ্য়াকাউন্ট খোলা, ভুয়ো সিম তোলা সহ নানাবিধ কাজ করে ফেলা যেতে পারে সহজেই।

প্রসঙ্গত, গোটা বিশ্বের পাশাপাশি গোটা দেশই ক্রমশ ডিজিটাল অগ্রগতির দিকে এগিয়ে গেলেও ভারতে ডিজিটাল সাক্ষরতার হার অনেকটাই কম। হাতে হাতে স্মার্টফোন ঘুরলেও প্রযুক্তিগতভাবে আদৌ কী স্মার্ট হতে পেরেছে সব ভারতীয়? এখনও রোজই খবরের শিরোনামে উঠে আসে ব্যাঙ্ক জালিয়াতি এটিএম জালিয়াতির খবর। একটা ফোন কল, একটা এসএএমএসে সহজেই বোকা বানানো যায় মানুষকে। দিকে দিকে দাপট বেড়েছে জামতাড়া গ্যাংদের। সেখানে AI এর মতো উচ্চ ক্ষমতা সম্পন্ন প্রযুক্তি বাজারে নামলে বোকা বানিয়ে জালিয়াতির কাজ আরও সহজ হয়ে যাবে বলেই উদ্বেগ প্রকাশ করছেন অনেকে।

ডিপফেকিং আপনি আছেন বাড়িতে। কিন্তু, আচমকা রটে গেল কোনও এক অপরাধমূলক চক্রান্তের সঙ্গে যুক্ত রয়েছেন আপনি। ধরা যাক আপনার বাড়ি কলকাতায়। আর সেই ঘটনা ঘটেছে দিঘায়। যার সঙ্গে আপনি কোনওভাবেই যুক্ত নন। কিন্তু, দেখা যাচ্ছে সেই ঘটনাস্থলে সশরীরের উপস্থিত রয়েছেন আপনি। দেখা যাচ্ছে আপনার ছবি। আপনি তো ভেবেই অবাক। কিন্তু, হ্যাঁ ঠিক এ কাজটাই করতে পারে AI। তখন ফটোশপকে মনে হবে শিশু। মুহূর্তেই কোনও ছবির ব্যাকগ্রাউন্ড বদলে যে কোনও মানুষকে যে কোনও জায়গায় পাঠিয়ে দেওয়া সম্ভব এই টুলগুলির দ্বারা। দেখলে আসল-নকল বোঝার উপায় থাকবে না। ইতিমধ্যেই বাজারে রয়েছে এই জাতীয় প্রচুর অ্যাপ। এমনকী কোনও জাল নথি, ব্যাঙ্ক স্টেটমেন্ট, জাল পরিচয়পত্র-সহ নানা অসাধু জিনিস তৈরিতে এই এদের জুড়ি মেলা ভার।

একইসঙ্গে এই প্রযুক্তি ব্যবহার করে প্ররোচনামূলক ভিডিয়ো বা অডিয়ো তৈরি করা যেতে পারে। কোনও ব্যক্তির কণ্ঠস্বর বদলে, বা একই কণ্ঠস্বর তৈরি করে প্রতারণার চক্রান্ত করা যেতে পারে। তাতে একদিকে যেমন কোনও ব্যক্তি বা সংস্থার ভাবমূর্তি নষ্ট হতে পারে, তেমনই রাষ্ট্রীয় আইন-শৃঙ্খলারও অবনতি হতে পারে। বাড়তে পারে হিংসা-অশান্তি।

সাইবার আক্রমণ :AI-কে ব্যবহার করে সাইবার আক্রমণ করাও খুবই সহজ হয়ে যেতে পারে। কোনও অসৎ উদ্দেশে যে কেউ সহজেই হ্যাকিং, স্প্যামিং করতে পারেন। তার ফলে ব্যক্তিগত তথ্য চুরি, ব্যবসায়িক ক্ষতি, রাষ্ট্রীয় ক্ষতিও হয়ে যেতে পারে।আগামীতে AI-র আরও বেশি খারাপ দিক উঠে আসতে পারে। যেহেতু, এর আচরণ, চিন্তা-ভাবনা, কাজের ধরনে অনেকাংশের মানুষের সঙ্গে মিল রয়েছে। এমনকী অনেক কাজেই সে মানুষের থেকেও অনেক বেশি দক্ষ। সে কারণেই তাতে আরও বেশি সিঁদুরে মেঘ দেখছেন বিশেষজ্ঞরা।

সামাজিক বৈষম্য: AI-কে ব্যবহার করে সামাজিক বৈষম্য, ভুল তথ্যের ঘনঘটা আরও বাড়ানো যেতে পারে। ভুল প্রয়োগে বেড়ে যেতে পারে সামাজিক ভেদাভেদ। ফেক নিউজ, ভুল তথ্যের প্রচারে অসাধু ব্যক্তিরা সহজে কাজে লাগাতে পারেন এই ধরনের প্রযুক্তিকে। তাই এ বিষয়ে সচেতন থাকা বিশেষভাবে দরকার। অন্যদিকে AI-কে ব্যবহার করে আরও বেশি বিপজ্জনক, বর্তমানের থেকে শক্তিশালী অস্ত্র তৈরি করা যেতে পারে। যেমন, AI-কে ব্যবহার করে পারমাণবিক অস্ত্র তৈরি করা যেতে পারে যা পুরো বিশ্বকে ধ্বংস করতেও সক্ষম হতে পারে। অল্প খরচে, কম মানব সম্পদ ব্যবহার করেই তা করা সম্ভব। তাই আগামীতে জঙ্গি গোষ্ঠীগুলির কাছে এই সমস্ত AI মারণাস্ত্র হিসাবে উঠে আসতে পারে। তাই এই AI আশীর্বাদ না অভিশাপ হিসাবে উঠে আসবে তার জবাব দেবে সময়ই।

Leave a Reply

Your email address will not be published. Required fields are marked *