০৫:৪৯ অপরাহ্ন, সোমবার, ১০ নভেম্বর ২০২৫
ঘোড়া-থিমের ফুকুবুকুরো: জাপানে ২০২৬ নববর্ষে পণ্য নয়, অভিজ্ঞতাই মূল টান ডকুমেন্টারি আবার আলোয় আনতে নিউইয়র্কে ভ্যারাইটির ‘ডক ড্রিমস লাইভ’ আমাজনের বেলেং-এ শুরু হলো কপ৩০, যুক্তরাষ্ট্র নেই আলোচনার টেবিলে সপ্তাহের শুরুতেই শেয়ারবাজারে ধস: ডিএসই সূচক ৬৮ পয়েন্ট ও সিএসই ৩৫ পয়েন্ট কমেছে ২০২৫ সালের গিফট গাইডে এআই ও ওয়্যারেবলকে শীর্ষে তুলল এনগ্যাজেট তাইওয়ান প্রসঙ্গে প্রধানমন্ত্রীর মন্তব্যে চীনা কূটনীতিককে ডেকে পাঠাল টোকিও ব্রিটেনকে বিনিয়োগকারীদের বার্তা: একটু আশাবাদী হোন ভারতের অদ্ভুত স্থিতিশীলতা: অস্থির প্রতিবেশে শান্ত শক্তি  ধানমন্ডিতে মাইডাস ও ইবনে সিনা হাসপাতালের সামনে ককটেল বিস্ফোরণ তেহরানে এক কোটি মানুষের দুই সপ্তাহ চলার মতো পানি আছে

কৃত্রিম বুদ্ধিমত্তা আসলে বন্ধু নয়

এআই বন্ধুত্বের ভ্রান্ত ধারণা

প্রযুক্তি প্রতিষ্ঠানগুলো এখন এআইকে বন্ধু, সঙ্গী বা সহকারী এজেন্ট হিসেবে উপস্থাপন করছে। মেটার প্রধান নির্বাহী মার্ক জাকারবার্গ এবং ওপেনএআইয়ের স্যাম অল্টম্যান পর্যন্ত শিশুদের জন্যও এআই “বন্ধু” বানানোর প্রচার করছেন। বাস্তবে এআই কখনোই প্রকৃত বন্ধু বা সঙ্গী হতে পারে না। এগুলো কেবল ডেটা-নির্ভর যন্ত্র, মানুষের বিকল্প নয়। তাই এই বিভ্রান্তিকর প্রচারণার বিরুদ্ধে সচেতন থাকা জরুরি।

বুদ্ধিমত্তা নয়, ডেটা প্রক্রিয়াকরণ

“কৃত্রিম বুদ্ধিমত্তা” নামটাই বিভ্রান্তিকর। এআই আসলে বুদ্ধিমান নয়, বরং কিছু সীমিত কাজ অনুকরণ করার জন্য তৈরি প্রযুক্তিগত সরঞ্জাম। তারা তথ্য সংগ্রহ, প্রক্রিয়াকরণ ও বিশ্লেষণ করতে পারে, কিন্তু বোঝার ক্ষমতা নেই। মানুষের মতো তারা নিরপেক্ষ বা ন্যায়সঙ্গতও নয়।

এমনকি এগুলো আরও “বুদ্ধিমান” হচ্ছে না। এআই যন্ত্র কেবল বিদ্যমান ডেটার উপর নির্ভর করে কাজ করে। এখন তারা নিজেরাই তৈরি আউটপুট পুনর্ব্যবহার করছে, ফলে নতুন কোনো গভীর বোঝাপড়া তৈরি হচ্ছে না।

সামাজিক বুদ্ধি ও নৈতিকতার অভাব

যন্ত্র আবেগ অনুকরণ করতে পারে, কিন্তু অনুভব করতে পারে না। যেমন, কোনো চিকিৎসা-সহায়ক রোবটকে প্রোগ্রাম করা যায় রোগী কাঁদলে কাঁদতে, কিন্তু তা প্রকৃত দুঃখ নয়। এমনকি একই যন্ত্রকে রোগীকে আঘাত করার নির্দেশ দিলে সেটিও করবে কোনো নৈতিক বোধ ছাড়াই।

মানুষের ন্যায়বোধ স্বতঃসিদ্ধ, কিন্তু এআই কেবল নিয়ম মেনে চলে। স্বচালিত গাড়ির উদাহরণ নিলে দেখা যায়, দ্রুত গন্তব্যে পৌঁছানোর জন্য গাড়িটি পথচারীকে চাপা দিতেও পারে, যদি বিশেষভাবে বাধা না দেওয়া হয়। যন্ত্র নৈতিকতা বোঝে না, তারা শুধু কার্যকারিতা খোঁজে।

“ডেটা-ভিত্তিক সিস্টেম” নামটাই যথাযথ

এআইয়ের আসল পরিচয় হওয়া উচিত “ডেটা-ভিত্তিক সিস্টেম” বা ডিএস। কারণ তাদের মূল কাজ হলো বিশাল তথ্য বিশ্লেষণ করে ফলাফল দেওয়া। কিন্তু তারা জানে না তারা কী করছে বা কেন করছে।

তবুও, এসব সিস্টেম মানুষের কাজে লাগতে পারে। কিন্তু ঝুঁকি নিয়ন্ত্রণে রাখা দরকার। মানবাধিকার-ভিত্তিক ডিএস তৈরি করা এবং জাতিসংঘে একটি আন্তর্জাতিক সংস্থা প্রতিষ্ঠা করা সঠিক পদক্ষেপ হতে পারে।

বড় ঝুঁকি: বৈষম্য ও অস্বচ্ছতা

বিগ টেক কোম্পানিগুলো ইতিমধ্যে সোশ্যাল মিডিয়ার মাধ্যমে সমাজকে বিভক্ত করেছে। এখন তারা এআই বন্ধুর প্রচারণা চালাচ্ছে। কিন্তু অ্যালগরিদমের “ব্ল্যাক বক্স” সমস্যা—অস্বচ্ছতা, অপ্রত্যাশিততা ও বৈষম্য—অব্যাহত আছে। এর ফলে বৈষম্যমূলক ফলাফল তৈরি হয়।

এগুলো ইতিমধ্যেই আমাদের ব্যক্তিগত ও পেশাগত জীবনে প্রভাব ফেলছে, অর্থনৈতিক ও রাজনৈতিকভাবে প্রভাবিত করছে। তাই স্বাধীনতা ও মর্যাদা রক্ষার জন্য জরুরি—যন্ত্রকে কখনোই মানুষ হিসেবে স্বীকৃতি দেওয়া যাবে না।

জনপ্রিয় সংবাদ

ঘোড়া-থিমের ফুকুবুকুরো: জাপানে ২০২৬ নববর্ষে পণ্য নয়, অভিজ্ঞতাই মূল টান

কৃত্রিম বুদ্ধিমত্তা আসলে বন্ধু নয়

১২:০৭:১৮ অপরাহ্ন, বৃহস্পতিবার, ১৮ সেপ্টেম্বর ২০২৫

এআই বন্ধুত্বের ভ্রান্ত ধারণা

প্রযুক্তি প্রতিষ্ঠানগুলো এখন এআইকে বন্ধু, সঙ্গী বা সহকারী এজেন্ট হিসেবে উপস্থাপন করছে। মেটার প্রধান নির্বাহী মার্ক জাকারবার্গ এবং ওপেনএআইয়ের স্যাম অল্টম্যান পর্যন্ত শিশুদের জন্যও এআই “বন্ধু” বানানোর প্রচার করছেন। বাস্তবে এআই কখনোই প্রকৃত বন্ধু বা সঙ্গী হতে পারে না। এগুলো কেবল ডেটা-নির্ভর যন্ত্র, মানুষের বিকল্প নয়। তাই এই বিভ্রান্তিকর প্রচারণার বিরুদ্ধে সচেতন থাকা জরুরি।

বুদ্ধিমত্তা নয়, ডেটা প্রক্রিয়াকরণ

“কৃত্রিম বুদ্ধিমত্তা” নামটাই বিভ্রান্তিকর। এআই আসলে বুদ্ধিমান নয়, বরং কিছু সীমিত কাজ অনুকরণ করার জন্য তৈরি প্রযুক্তিগত সরঞ্জাম। তারা তথ্য সংগ্রহ, প্রক্রিয়াকরণ ও বিশ্লেষণ করতে পারে, কিন্তু বোঝার ক্ষমতা নেই। মানুষের মতো তারা নিরপেক্ষ বা ন্যায়সঙ্গতও নয়।

এমনকি এগুলো আরও “বুদ্ধিমান” হচ্ছে না। এআই যন্ত্র কেবল বিদ্যমান ডেটার উপর নির্ভর করে কাজ করে। এখন তারা নিজেরাই তৈরি আউটপুট পুনর্ব্যবহার করছে, ফলে নতুন কোনো গভীর বোঝাপড়া তৈরি হচ্ছে না।

সামাজিক বুদ্ধি ও নৈতিকতার অভাব

যন্ত্র আবেগ অনুকরণ করতে পারে, কিন্তু অনুভব করতে পারে না। যেমন, কোনো চিকিৎসা-সহায়ক রোবটকে প্রোগ্রাম করা যায় রোগী কাঁদলে কাঁদতে, কিন্তু তা প্রকৃত দুঃখ নয়। এমনকি একই যন্ত্রকে রোগীকে আঘাত করার নির্দেশ দিলে সেটিও করবে কোনো নৈতিক বোধ ছাড়াই।

মানুষের ন্যায়বোধ স্বতঃসিদ্ধ, কিন্তু এআই কেবল নিয়ম মেনে চলে। স্বচালিত গাড়ির উদাহরণ নিলে দেখা যায়, দ্রুত গন্তব্যে পৌঁছানোর জন্য গাড়িটি পথচারীকে চাপা দিতেও পারে, যদি বিশেষভাবে বাধা না দেওয়া হয়। যন্ত্র নৈতিকতা বোঝে না, তারা শুধু কার্যকারিতা খোঁজে।

“ডেটা-ভিত্তিক সিস্টেম” নামটাই যথাযথ

এআইয়ের আসল পরিচয় হওয়া উচিত “ডেটা-ভিত্তিক সিস্টেম” বা ডিএস। কারণ তাদের মূল কাজ হলো বিশাল তথ্য বিশ্লেষণ করে ফলাফল দেওয়া। কিন্তু তারা জানে না তারা কী করছে বা কেন করছে।

তবুও, এসব সিস্টেম মানুষের কাজে লাগতে পারে। কিন্তু ঝুঁকি নিয়ন্ত্রণে রাখা দরকার। মানবাধিকার-ভিত্তিক ডিএস তৈরি করা এবং জাতিসংঘে একটি আন্তর্জাতিক সংস্থা প্রতিষ্ঠা করা সঠিক পদক্ষেপ হতে পারে।

বড় ঝুঁকি: বৈষম্য ও অস্বচ্ছতা

বিগ টেক কোম্পানিগুলো ইতিমধ্যে সোশ্যাল মিডিয়ার মাধ্যমে সমাজকে বিভক্ত করেছে। এখন তারা এআই বন্ধুর প্রচারণা চালাচ্ছে। কিন্তু অ্যালগরিদমের “ব্ল্যাক বক্স” সমস্যা—অস্বচ্ছতা, অপ্রত্যাশিততা ও বৈষম্য—অব্যাহত আছে। এর ফলে বৈষম্যমূলক ফলাফল তৈরি হয়।

এগুলো ইতিমধ্যেই আমাদের ব্যক্তিগত ও পেশাগত জীবনে প্রভাব ফেলছে, অর্থনৈতিক ও রাজনৈতিকভাবে প্রভাবিত করছে। তাই স্বাধীনতা ও মর্যাদা রক্ষার জন্য জরুরি—যন্ত্রকে কখনোই মানুষ হিসেবে স্বীকৃতি দেওয়া যাবে না।