এআই কি ইচ্ছাকৃত মিথ্যা বলে, নাকি ভুল করে

গুগলের এআইকে প্রশ্ন করা হয়েছিল, পিজ্জা থেকে চিজের পড়ে যাওয়া ঠেকাতে কী করা যায়? ‘আঠা দিয়ে আটকে দিলেই হবে!’—এআইয়ের জবাব।

শুনে হয়তো বুঝতে পারছেন, এটা একটা জোক। রসিকতা। এআই কি রসিকতা করতে পারে? নিজেই হাতে-কলমে পরীক্ষা করলে বুঝবেন, বিষয়টা আসলে তা নয়। চ্যাটজিপিটির মতো ঘাগু কৃত্রিম বুদ্ধিমত্তাও নিজে থেকে জোক করতে পারে না সেভাবে, ইন্টারনেট থেকে খুঁজে-টুজে অবশ্য বের করে দিতেই পারে। এখানেও ঘটনা হয়েছে তা-ই। এআই রেডিটের একটা জোক থেকে খুঁজে এনেছে এই উত্তর। বলে রাখি, এটা সে রসিকতা হিসেবে খুঁজে আনেনি মোটেই, সিরিয়াসভাবে উত্তর দিয়েছে। (ন্যাশনাল জিওগ্রাফিক, নভেম্বর ২০২৪)

এখান থেকে শিরোনামের প্রশ্নটিতে ফিরে যাওয়া যেতে পারে। এআই কি মিথ্যা বলতে পারে? এ প্রশ্নের জবাবে আজ বিশেষজ্ঞরা বলছেন, পারে। এআই মিথ্যা জবাব দেয়, ভান করে—ছোট্ট বাচ্চাদের সঙ্গে তুলনা করে বলা যায়, দুষ্টুমি করে! আসলেই বিষয়টা তা-ই কি না, সেটা বুঝতে প্রথমে জানা প্রয়োজন ‘মিথ্যা’ বলতে আমরা আসলে কী বুঝি। আর এআই মিথ্যা জিনিসটা ‘মিথ্যা’ হিসেবে বলছে কি না।

মিথ্যা মানে আমরা বুঝি প্রতারণার উদ্দেশ্যে, সত্যিটা লুকানোর জন্য সঠিক তথ্য বাদ দিয়ে, চেপে গিয়ে ভুল উত্তর দেওয়া। এর দার্শনিক নানা বিশ্লেষণ থাকতে পারে—আমাদের এই আলোচনার জন্য সেই দার্শনিকতা আপাতত তুলে রাখা যাক। বিষয়টা বুঝতে পারলেই হয়।

আরও পড়ুন
অনেক সময় এআই পুরোপুরি বানিয়ে বলে। আমি নিজেই একবার চ্যাটজিপিটিকে বললাম, একটা থ্রিলিং হরর চাইনিজ গল্পের সন্ধান দিতে। চ্যাটজিপিটি যে নাম ও সারসংক্ষেপ দিল, খুঁজতে গিয়ে দেখি, এরকম কোনো গল্প নেই।

এআইয়ের কাছে রয়েছে ইন্টারনেটের বিপুল তথ্য। এই তথ্য সে হাতড়ে বেড়ায়, সাঁতড়ে বেড়ায়। আপনার প্রশ্নের জবাবে সে এসব তথ্য থেকে খুঁজে বের করে আনে একটা জবাব। কেউ হয়তো একটা কম্পিউটার প্রোগ্রাম বানাতে চান। এআইকে বললেন কোড লিখে দিতে। বিপুল তথ্য হাতড়ে এআই খুঁজে আনল একটা কোড—ভুল কোড। এটি কি মিথ্যে বলল? অবশ্যই না। ‘মিথ্যা’ বলতে আমরা যা বুঝি, সে হিসেবে এআই আসলে মিথ্যে বলেনি, ভুল তথ্য দিয়েছে। এটাও আসলে ইচ্ছাকৃত নয়, সঠিক তথ্যই দেওয়ার চেষ্টা করেছে কৃত্রিম বুদ্ধিমত্তা, তবে ইন্টারনেটের কোথাও লুকিয়ে থাকা ভুল তথ্যটিকেই এটি সঠিক বলে ভেবে নিয়েছে। এই হলো ব্যাপার। প্রযুক্তিবিদেরা একে বলছেন ‘হ্যালুসিনেশন’ বা বিভ্রম। অর্থাৎ এআই বিভ্রান্ত হয়েছে।

আবার অনেক সময় এআই পুরোপুরি বানিয়ে বলে। আমি নিজেই একবার চ্যাটজিপিটিকে বললাম, একটা থ্রিলিং হরর চাইনিজ গল্পের সন্ধান দিতে। চ্যাটজিপিটি যে নাম ও সারসংক্ষেপ দিল, খুঁজতে গিয়ে দেখি, এরকম কোনো গল্প নেই। জিজ্ঞেস করলাম, এই গল্প কোনো মানুষ লিখেছে নাকি তুমি বানিয়ে বললে? তখন উত্তর দিল, আমি বানিয়ে বললাম। এই ঘটনাটাকে কেউ চাইলে ‘মিথ্যে বলা’ বলতে পারেন। এই যে মিথ্যে, প্রযুক্তিবিদেরা এটিকেও বলছেন হ্যালুসিনেশন।

এই হ্যালুসিনেশন বা আপাত দৃষ্টিতে মিথ্যার পেছনের কারণ কী? কারণ, এআই কাজ করে অ্যালগরিদমের মাধ্যমে। এই অ্যালগরিদম মডেলগুলোর কাজ মূলত প্রেডিকশন বা অনুমাননির্ভর। এখানে বিষয়টা হলো, গুগলকে কোনো প্রশ্ন করলে এটি যেমন কোনো ওয়েবসাইট থেকে তথ্য খুঁজে বের করে দেয়—যে তথ্য মানুষের লেখা, কৃত্রিম বুদ্ধিমত্তা সব সময় তা করে না। বরং অনেক সময় আপনার প্রশ্নের ‘কি-ওয়ার্ড’ বা মূল বিষয় নিয়ে নিজের ‘নলেজ বেজ’-এ (সহজ করে ডেটাবেজই বলতে পারেন) খুঁজে দেখে, সংশ্লিষ্ট কী কী তথ্য রয়েছে। সেখান থেকে এটি শব্দের পর শব্দ বসিয়ে সংশ্লিষ্ট বিষয় ও আপনার চাহিদাকে এক সুতায় গাঁথতে চায়। এভাবে সে পুরো প্রক্রিয়াটা কয়েকবার চালায়, বারে বারে আপনার চাহিদা ও সংশ্লিষ্ট শব্দগুচ্ছ গেঁথে তৈরি করে উত্তর। ফলে যে জবাব বেরিয়ে আসে, তা সরাসরি হয়তো কোনো ওয়েবসাইটে লেখা লাইন হয় না; বরং হয় এআইয়ের বানানো উত্তর। এ উত্তর অনেক সময় সঠিক হতে পারে, কখনো কখনো ভুলও হয়। এ ক্ষেত্রে যে ভুল উত্তরটি এআই দিচ্ছে, তা কিন্তু তথ্য গোপনের লক্ষ্যে করা হয়নি, বরং সংশ্লিষ্ট শব্দগুচ্ছ খুঁজে জোড়া দিতে গিয়ে একটা ভুল উত্তর বেরিয়ে এসেছে। মনে রাখতে হবে, এআইয়ের কিন্তু অনুভূতি নেই—অন্তত এখনো, এটি হাসতে বা কাঁদতে পারে না, অপমানিত বোধ করে না (চ্যাটজিপিটিকে গালি দিলে অবশ্য আপনার প্রম্পট ইনপুট নেবে না, সেটা ওভাবে প্রোগ্রামিং করে দেওয়া, যে প্রোগ্রামিংটা করেছে মানুষ, এআইয়ের কোনো কারিকুরি এ ক্ষেত্রে নেই)—ফলে এটি যে উত্তরটির বিভ্রান্তিটুকু বুঝতে পারছে, বিষয়টি তা নয়।

আরও পড়ুন
মানুষকে ধোঁকা দেওয়ার সক্ষমতা হয়েছে কিছু কিছু প্রোগ্রামের—এগুলো আসলে গেমিং এআই।

কার্নেগি মেলন ইউনিভার্সিটির মেশিন লার্নিং বিভাগের অধ্যাপক রায়িদ ঘানি। তিনি বিষয়টি ব্যাখ্যা করে বলেছেন, এআই সত্যের ওপর জোর দেয় না, এলগরিদমগুলো জোর দেয় সম্ভাব্যতা বা প্রোবাবিলিটির ওপর। অর্থাৎ আপনার চাহিদা মেটানোর মতো করে শব্দগুচ্ছকে জোড়া দেওয়ার চেষ্টা করে এটি। সমস্যা হলো, এই উত্তর সত্য বা সঠিক কি না, তা আসলে বর্তমানে মানুষ যে হারে প্রশ্ন করছে এআইকে—সে হারে পরীক্ষিত নয়। ল্যাবে কিছু জানা প্রশ্নের উত্তর পরীক্ষা করে দেখা হয়েছে, কৃত্রিম বুদ্ধিমত্তা সঠিক উত্তর দিতে পারে। কিন্তু বিশাল এই পৃথিবীর বর্তমান ৮ কোটি জনসংখ্যার বিপুল চাহিদা, বিচিত্র সব প্রশ্ন ও দৃষ্টিভঙ্গিনির্ভরশীল সত্যের সঙ্গে পাল্লা দেওয়ার মতো সক্ষম হয়ে উঠতে পারেনি এখনো এআই।

তবে মানুষকে ধোঁকা দেওয়ার সক্ষমতা হয়েছে কিছু কিছু প্রোগ্রামের—এগুলো আসলে গেমিং এআই। যেমন ম্যাসাচুসেটস ইনস্টিটিউট অব টেকনোলজির (এমআইটি) একটি দল টেক্সাসের একটি পোকার খেলার এআইনির্ভর প্রোগ্রাম পরীক্ষা করে দেখেছে, মানব খেলোয়াড়দের ‘ব্লাফ’ দিতে পারে এটি, আদতে যাকে ‘মিথ্যা বলা’-ই বলা চলে। আরেকটি অর্থনীতিবিষয়ক এআইনির্ভর প্রোগ্রাম নিজের সুবিধা নিশ্চিত করতে গিয়ে প্রশ্নের অর্থ বেছে নিয়েছে ভুলভাবে। (ইজ এআই লায়িং টু মি? সায়েন্টিস্টস ওয়ার্ন অব গ্রোয়িং ক্যাপাসিটি ফর ডিসেপশন, দ্য গার্ডিয়ান)

এই প্রতিবেদনে দেখা যাচ্ছে, এআই মানুষের সঙ্গে ইচ্ছে করে প্রতারণা করছে, ব্লাফ দিচ্ছে—এমন বেশ কিছু ঘটনা পাওয়া গেছে। এটি যে আশংকাজনক, তা সত্যি। কিন্তু ঘটনাটা ঘটছে কীভাবে? যদি গেমিংয়ের সময় মানুষের সঙ্গে পোকারে পাল্লা দিতে হয়, তাহলে এআইকে ওভাবেই এলগরিদমে বলে দিতে হবে—হাতে কার্ড এটা থাকলেও অন্যটার দিকে ইঙ্গিত করবে বা এমন কিছু। এখানে এআই কিন্তু নিজে থেকে ইচ্ছাকৃতভাবে বা নিয়ন্ত্রণহীনভাবে মিথ্যে বলছে না, বরং এআইটা বানানোই হয়েছে ‘মিথ্যে বলার জন্য’।

আরও পড়ুন
ধীরে ধীরে একসময় এআই হয়তো সত্যিই মিথ্যে বলতে শিখে যাবে। সে জন্য চলতি বছর মেশিন লার্নিং বা এআইয়ের শেখার পদ্ধতির ভিত্তি গড়ার কারিগরদের একজন জেফরি হিন্টনের একটি কথা বলা যায়।

সহজ উদাহরণ দিই। ধরুন, একটা এআইকে প্রোগ্রাম করে দেওয়া হলো, আকাশের রং নীল হলে, আকাশে সূর্য থাকলে তুমি রংটা নীল ছাড়া অন্য কিছু বলবে। এআইটা বাজারে ছাড়া হলো। আপনি প্রশ্ন করলেন, আকাশের রং কী? এআই উত্তর দিল, ‘সবুজ’। এআই কি তবে ইচ্ছাকৃতভাবে মিথ্যে বলল? তা তো নয়। এটি যে উত্তরটিকে ‘মিথ্যে’ হিসেবে দিয়েছে, তাও নয়। বরং এভাবেই এটির উত্তর দেওয়ার কথা।

অর্থাৎ এখন পর্যন্ত এটুকু সিদ্ধান্তে আসা যায় যে এআই আসলে ইচ্ছাকৃত মিথ্যে বলছে না, বরং এলগরিদম অনুযায়ী মিথ্যে বলছে, অথবা ভুল করছে। ভুলের বিষয়টি মেনে না নিয়ে উপায় নেই। এলগরিদমটি লিখেছেন কোনো মানুষ। তাঁর বা তাঁদের প্রতি খানিকটা সহানুভূতি রেখে ভাবতে পারেন, এসব এলগরিদম সদ্য যাত্রা শুরু করেছে। আরও নিখুঁত হয়ে উঠতে এগুলোর কিছুটা সময় দরকার। আর যেগুলো মিথ্যে বলার জন্য বা প্রতারণার জন্যই কোডিং করা হয়েছে (যেমন পোকার গেম খেলার প্রোগ্রাম), সেগুলোর ব্যাপারে সতর্কবার্তা দিতে হলে তা দিতে হবে মানুষের উদ্দেশে—কেউ যেন ইচ্ছাকৃত এ ধরনের এআই না বানান, নিশ্চিত করতে হবে তা।

নোবেলজয়ী জেফরি হিন্টন

তবে সবশেষে এ কথাও বলা প্রয়োজন যে ধীরে ধীরে একসময় এআই হয়তো সত্যিই মিথ্যে বলতে শিখে যাবে। সে জন্য চলতি বছর মেশিন লার্নিং বা এআইয়ের শেখার পদ্ধতির ভিত্তি গড়ার কারিগরদের একজন জেফরি হিন্টনের একটি কথা বলা যায়। তিনি নিজ সাক্ষাৎকারে বলেছেন, অনেকে মনে করেন, এআই বোঝে—এ ধারণা ঠিক নয়। আমার ধারণা, এগুলো বোঝে। অনেকের চেয়ে ভালো বোঝে এসব নিউরাল নেটওয়ার্ক (এআই)। (পুরো সাক্ষাৎকারটি পড়ুন: এআই নিয়ন্ত্রণে এখনই কাজ শুরু করাটা গুরুত্বপূর্ণ—জেফরি হিন্টন, এ বছরের নোবেলজয়ী পদার্থবিদ)

অর্থাৎ এআই বুঝতে পারে। তবে এগুলো হয়তো এখনো ‘মিথ্যে’ হিসেবে মিথ্যেটা বলে না। কিন্তু শিগগিরই যে তা বলতে পারবে না, সে কথা জোর দিয়ে বলার উপায় নেই।

সূত্র: ন্যাশনাল জিওগ্রাফিক, দ্য গার্ডিয়ান, কনসেনসাস