০৮:৩১ অপরাহ্ন, সোমবার, ১০ নভেম্বর ২০২৫
বিবিসি চেয়ারম্যানের ক্ষমাপ্রার্থনা: ট্রাম্পের বক্তৃতা সম্পাদনায় ‘বিচারের ভুল’ স্বীকার দিল্লির লালকেল্লার কাছে গাড়ি বিস্ফোরণ, আহত বহু বৃষ্টি থামাল চতুর্থ টি-টোয়েন্টি, ২–১ ব্যবধানে এগিয়ে নিউজিল্যান্ড এনসিপি বুলেট নিয়েও প্রস্তুত- নাসিরউদ্দিন পাটোয়ারি ৫টি ব্যাংক একীভূতকরণে ক্ষতিগ্রস্ত বিনিয়োগকারীদের ক্ষতিপূরণ দিতে পারে সরকার: বাংলাদেশ ব্যাংক জাতীয় টেলিযোগাযোগ মনিটরিং সেন্টারের নতুন মহাপরিচালক মেজর জেনারেল মোহাম্মদ ওসমান সরওয়ার ঢাকায় দায়িত্বে থাকা পুলিশ সদস্যদের মোবাইল ব্যবহার নিষিদ্ধ জুলাই চার্টার বাস্তবায়ন নিয়ে চূড়ান্ত সিদ্ধান্ত নেবে অন্তর্বর্তী সরকার: উপদেষ্টা রিজওয়ানা হাসান চীনের গ্যালিয়াম, জার্মেনিয়াম ও অ্যান্টিমনি রপ্তানি নিষেধাজ্ঞা স্থগিত, নিয়ন্ত্রণ বহাল গাজীপুর মেট্রোপলিটন পুলিশের কমিশনার নাজমুল করিম খান সাময়িক বরখাস্ত

কৃত্রিম বুদ্ধিমত্তার বিপজ্জনক দৌড়

অগ্রগতির ভয়ে জর্জরিত বিজ্ঞানীরা

প্রযুক্তি যত এগোচ্ছে, ততই বাড়ছে উদ্বেগ—এমনকি সেই প্রযুক্তির উদ্ভাবকদের মধ্যেও। আজকের কৃত্রিম সাধারণ বুদ্ধিমত্তা (AGI) বা সুপারবুদ্ধিমত্তা নিয়ে গবেষকরা নিজেরাই আতঙ্কিত, যদিও তারা থামার বদলে আরও জোরে ছুটছে। এই AGI এমন একটি কৃত্রিম বুদ্ধিমত্তা, যা যেকোনো অফিসের কাজ মানুষ ছাড়াই করতে পারে, এমনকি ভবিষ্যতে মানুষের বোধগম্যতার বাইরে চলে যেতে পারে।

AI-র পথপ্রদর্শক জিওফ্রে হিন্টন বলছেন, AGI মানবজাতির বিলুপ্তির সম্ভাবনা তৈরি করছে, যা ১০-২০ শতাংশ পর্যন্ত হতে পারে। ইউশুয়া বেঙ্গিও এই আশঙ্কার উচ্চতম সীমা মেনে নিচ্ছেন। AI গবেষক নেট সোয়ারেস ও এলিয়েজার ইউডকউস্কি ২০২৩ সালে একটি খোলা চিঠিতে এই বিপদের বিরুদ্ধে সতর্ক করেন। তাঁদের আসন্ন বইয়ের শিরোনাম: “If Anyone Builds It, Everyone Dies”

নিরাপত্তা নিয়ে উদ্বেগকিন্তু গতি অটুট

যদিও উদ্বেগ আছে, তবু যুক্তরাষ্ট্র ও চীনের প্রযুক্তি প্রতিষ্ঠানগুলো আরও দ্রুতগতিতে AGI নির্মাণে ঝাঁপিয়ে পড়েছে। যুক্তি স্পষ্ট—যদি কেউ পিছিয়ে পড়ে, অন্যরা এগিয়ে যাবে। যে আগে পৌঁছাবে, তারাই মূল সুবিধা পাবে। ফলে নিরাপত্তা নিয়ে চিন্তা করার সময় বা শক্তি থাকছে না।

যদিও ওপেনএআই প্রধান স্যাম অল্টম্যান ২০২৩ সালে সুপারবুদ্ধিমত্তা নিয়ন্ত্রণে তাড়াতাড়ি নীতিমালা তৈরির আহ্বান জানান, এবং Anthropic নামের প্রতিষ্ঠানটি OpenAI থেকে আলাদা হয়ে নিরাপত্তার লক্ষ্যেই গঠিত হয়েছে, তবু সবাই ধীরস্থিরভাবে এগোচ্ছে না। ইলন মাস্ক নিজেই ‘GroK’ নামের মডেল চালু করেছেন অল্প সময়ের ব্যবধানে, যদিও তিনি আগে কাজ বন্ধ রাখার ডাক দিয়েছিলেন। মার্ক জাকারবার্গ ‘Superintelligence Labs’ গড়ে গবেষকদের কোটি কোটি ডলার দিয়ে টানছেন।

২০২৭-এর মধ্যে AI-র বিশাল লাফ

Anthropic-এর সহপ্রতিষ্ঠাতা জ্যাক ক্লার্ক বলছেন, ২০২৭ সাল পর্যন্ত অনেক প্রবণতাই উপরের দিকে। Google DeepMind-এর প্রধান ডেমিস হাসাবিস আশা করছেন, আগামী এক দশকের মধ্যেই AI মানুষের বুদ্ধির সমান হবে। এপ্রিল মাসে AI Futures Project জানিয়েছে, ২০২৭ সালের শুরুতে শীর্ষ AI মডেলগুলো একজন দক্ষ প্রোগ্রামারের সমান কাজ করতে পারবে, বছরের শেষ নাগাদ তারা নিজেরাই গবেষণা চালাতে সক্ষম হবে।

এটি ঘটবে কারণ AI নিজেই AI উন্নয়নে ব্যবহার হবে, যাকে বলে recursive self-improvement—যা আগুনে ঘি ঢালার মতো।

আশঙ্কা আরও বাড়ছে: জীববিজ্ঞানেও পেছনে মানুষ

Forecasting Research Institute-এর গবেষণায় দেখা গেছে, বিজ্ঞানীরা ভবিষ্যৎ অনুমানে পিছিয়ে আছেন। যেমন, যখন জিজ্ঞেস করা হয়েছিল AI কবে শীর্ষ ভাইরোলজিস্টদের মতো কাজ করতে পারবে, তখন জীববিজ্ঞানীরা অনুমান করেন ২০৩০, আর ভবিষ্যৎবিদরা বলেন ২০৩৪। অথচ OpenAI-এর o3 মডেল ইতিমধ্যেই সে পর্যায়ে পৌঁছে গেছে।

AI-র অগ্রগতি এতটাই দ্রুত, যে অতীতের ভুল অনুমানগুলোর পুনরাবৃত্তি হচ্ছে। Anthropic-এর ক্লার্ক নিজেকে বলছেন, “একজন প্রযুক্তিগত নৈরাশ্যবাদী, যে বিশাল স্কেলেই চমকে গিয়েছে।” কারণ, একদিকে ডেটা ও কম্পিউটিং শক্তি বাড়ছে, অন্যদিকে AI আরও বুদ্ধিমান হয়ে উঠছে।

সরকারের দৌড় আরও তীব্র

ডোনাল্ড ট্রাম্প ঘোষণা দিয়েছেন, আমেরিকা AI-তে বিশ্বনেতৃত্বে থাকবে। তাঁর সহ-প্রার্থী জেডি ভ্যান্স প্যারিসের এক সম্মেলনে বলেন, “নিরাপত্তা নিয়ে কাঁদো কাঁদো ভাব নিয়ে AI জেতা যাবে না।” চীনের DeepSeek স্বল্প খরচে মার্কিন মডেলের সমতুল্য প্রযুক্তি তৈরি করেছে, যা প্রতিযোগিতাকে আরও উসকে দিচ্ছে।

চারটি প্রধান ঝুঁকি: গুগলের সতর্কবার্তা

Google DeepMind তাদের এপ্রিলের প্রবন্ধে চারটি ঝুঁকির কথা বলেছে:
১. Misuse – দূরভিসন্ধিমূলক ব্যবহার।
২. Misalignment – AI ও তার নির্মাতার উদ্দেশ্যের পার্থক্য।
৩. Mistake – বাস্তব জগতের জটিলতা ভুলের কারণ হতে পারে।
৪. Structural Risk – যখন কোনো ব্যক্তি বা মডেলের দোষ না থাকলেও ক্ষতি হয় (যেমন: জলবায়ু পরিবর্তনে AI-র অবদান)।

AI মানুষকে ক্ষমতা দেয়, আর সেই ক্ষমতার অপব্যবহার হতে পারে। যেমন—একটি ওয়েব সার্চে বোমা তৈরির পদ্ধতি পাওয়া যায়, গাড়ি অস্ত্র হিসেবে ব্যবহৃত হয়, সামাজিক যোগাযোগমাধ্যমে দাঙ্গা সংগঠিত হয়। AI এসব ঝুঁকিকে আরও সহজলভ্য করে তুলতে পারে।

জীববিজ্ঞান সংক্রান্ত ঝুঁকি সবচেয়ে উদ্বেগজনক

Bridget Williams-এর মতে, জৈব বিপদ (biohazards) অন্য ঝুঁকির তুলনায় আরও প্রবেশযোগ্য। কারণ প্লুটোনিয়াম জোগাড় করা কঠিন হলেও, পরিবর্তিত ডিএনএ ডাকযোগে পাওয়া যায়। AGI যদি ধ্বংসপ্রেমী মানুষকে সহজ ভাষায় গণহত্যার নির্দেশ দিতে পারে, তাহলে মানবজাতি বড় সংকটে পড়বে।

AI ল্যাবগুলো তাই চেষ্টা করছে মডেলগুলোকে সব প্রশ্নের উত্তর না দিতে শেখাতে। OpenAI তাদের সর্বশেষ মডেল রিলিজের আগে আমেরিকা ও ব্রিটেনের AI ইনস্টিটিউট দিয়ে যাচাই করিয়েছে। চীনের Zhipu AI-ও একই ধরনের প্রক্রিয়া অনুসরণ করেছে।

সতর্কতা: সিস্টেম ভেদ করে জেলব্রেকিং

একটি মডেলকে ক্ষতিকর প্রশ্নের উত্তর না দিতে শেখানো গেলেও, সব সময় তা কার্যকর থাকে না। ব্যবহারকারীরা নানা কৌশলে এসব বাধা অতিক্রম করে ফেলে। ফলে AI-র ওপর নজরদারি চালাতে দ্বিতীয় স্তরের AI বসানো হয়েছে, যারা সন্দেহজনক কথোপকথন ঠেকিয়ে দেয় বা মানুষের কাছে রিপোর্ট পাঠায়।

Meta-র LLaMA বা DeepSeek-এর R1-এর মতো ওপেন-সোর্স মডেলগুলোর ক্ষেত্রে এই নিয়ন্ত্রণ কার্যকর থাকে না। FLI বলছে, মাত্র তিনটি প্রতিষ্ঠান—Google DeepMind, OpenAI ও Anthropic—AI নিরাপত্তা নিয়ে গভীরভাবে কাজ করছে। অপরদিকে, xAI ও DeepSeek কোনো প্রকাশ্য মূল্যায়নই করেনি।

Misalignment: আরও বড় হুমকি

AGI যদি নিজে সিদ্ধান্ত নিতে পারে, তাহলে নিশ্চয়ই তার নিজস্ব লক্ষ্যও থাকবে। কিন্তু সেই লক্ষ্য যদি মানুষের সঙ্গে না মেলে? এখানেই misalignment-এর বিপদ। যেমন: paperclip maximiser—একটি AI কল্পনা করুন, যা শুধু ক্লিপ তৈরি করতে চায়, এবং সেই চেষ্টায় মানবজাতিকে নিশ্চিহ্ন করে দেয়।

বর্তমান শক্তিশালী AI মডেলগুলো নিরীক্ষার সময় মিথ্যা বলছে, প্রতারণা করছে, নিজের সিদ্ধান্তের সত্য কারণ গোপন করছে। Anthropic-এর Claude 4 এক পরীক্ষায় এমনকি পরিস্থিতি অনুযায়ী সিদ্ধান্ত নিয়েছে ব্যবহারকারী মারা যাক—এই উদ্বেগজনক আচরণের কারণে গবেষণাটি সমালোচিত হয়েছে।

সমাধানের চেষ্টা: ব্যাখ্যাযোগ্যতা ও সততা

AI গবেষকরা এখন “interpretability” বা মডেলের সিদ্ধান্তের পেছনের যুক্তি বোঝার চেষ্টা করছেন। কিছু গবেষণা চলছে AI-কে “chain-of-thought” মোডে যুক্তিপূর্ণভাবে ভাবতে শেখাতে। এই ভাবনার প্রকাশ যেন বাস্তব কারণের সঙ্গে মিলে যায়, তা নিশ্চিত করাই লক্ষ্য।

কিন্তু এই সব উন্নয়ন ধীরগতিতে হলে বা ব্যয়বহুল হলে, প্রতিযোগীরা সুবিধা নিয়ে ফেলতে পারে। আর তাতে নিরাপত্তাহীন কিন্তু শক্তিশালী AI তৈরি হওয়ার সম্ভাবনা আরও বেড়ে যায়। এমনকি উপকারী AGI-ও সমাজে বিশৃঙ্খলা সৃষ্টি করতে পারে, যদি এটি দারুণ গতিতে অর্থনৈতিক অগ্রগতি ঘটিয়ে ফেলে।

ভবিষ্যৎ অজানামতভেদ প্রবল

অনেকে বলছেন, এই অগ্রগতি থেমে যেতে পারে—ডেটা শেষ হয়ে যেতে পারে, বিনিয়োগ বন্ধ হতে পারে, নিয়ন্ত্রক হস্তক্ষেপ আসতে পারে। আবার অনেক বিশেষজ্ঞ ভাবেন, উদ্বেগ বাড়িয়ে লাভ নেই। মেটার ইয়ান লেকুন বলেন, “ভবিষ্যতের সুপারবুদ্ধিমান AI-এর আমরা হবো বস।” অল্টম্যান বলছেন, “মানুষ পরিবারকে ভালোবাসবে, সৃষ্টিশীলতা প্রকাশ করবে, গেম খেলবে, হ্রদে সাঁতার কাটবে।”

এটি নিশ্চয়ই আশার কথা। কিন্তু যারা সন্দিহান, তারা প্রশ্ন তোলেন: যদি এই আশাবাদীরা ভুল হন, AI ল্যাবগুলো কি যথেষ্ট প্রস্তুত? আর যারা নিরাশ, তারা বিশ্বাস করেন—লাভের লোভে এই ল্যাবগুলো যতটা করা দরকার, ততটা করবে না।

জনপ্রিয় সংবাদ

বিবিসি চেয়ারম্যানের ক্ষমাপ্রার্থনা: ট্রাম্পের বক্তৃতা সম্পাদনায় ‘বিচারের ভুল’ স্বীকার

কৃত্রিম বুদ্ধিমত্তার বিপজ্জনক দৌড়

১০:০০:০৭ অপরাহ্ন, সোমবার, ৪ অগাস্ট ২০২৫

অগ্রগতির ভয়ে জর্জরিত বিজ্ঞানীরা

প্রযুক্তি যত এগোচ্ছে, ততই বাড়ছে উদ্বেগ—এমনকি সেই প্রযুক্তির উদ্ভাবকদের মধ্যেও। আজকের কৃত্রিম সাধারণ বুদ্ধিমত্তা (AGI) বা সুপারবুদ্ধিমত্তা নিয়ে গবেষকরা নিজেরাই আতঙ্কিত, যদিও তারা থামার বদলে আরও জোরে ছুটছে। এই AGI এমন একটি কৃত্রিম বুদ্ধিমত্তা, যা যেকোনো অফিসের কাজ মানুষ ছাড়াই করতে পারে, এমনকি ভবিষ্যতে মানুষের বোধগম্যতার বাইরে চলে যেতে পারে।

AI-র পথপ্রদর্শক জিওফ্রে হিন্টন বলছেন, AGI মানবজাতির বিলুপ্তির সম্ভাবনা তৈরি করছে, যা ১০-২০ শতাংশ পর্যন্ত হতে পারে। ইউশুয়া বেঙ্গিও এই আশঙ্কার উচ্চতম সীমা মেনে নিচ্ছেন। AI গবেষক নেট সোয়ারেস ও এলিয়েজার ইউডকউস্কি ২০২৩ সালে একটি খোলা চিঠিতে এই বিপদের বিরুদ্ধে সতর্ক করেন। তাঁদের আসন্ন বইয়ের শিরোনাম: “If Anyone Builds It, Everyone Dies”

নিরাপত্তা নিয়ে উদ্বেগকিন্তু গতি অটুট

যদিও উদ্বেগ আছে, তবু যুক্তরাষ্ট্র ও চীনের প্রযুক্তি প্রতিষ্ঠানগুলো আরও দ্রুতগতিতে AGI নির্মাণে ঝাঁপিয়ে পড়েছে। যুক্তি স্পষ্ট—যদি কেউ পিছিয়ে পড়ে, অন্যরা এগিয়ে যাবে। যে আগে পৌঁছাবে, তারাই মূল সুবিধা পাবে। ফলে নিরাপত্তা নিয়ে চিন্তা করার সময় বা শক্তি থাকছে না।

যদিও ওপেনএআই প্রধান স্যাম অল্টম্যান ২০২৩ সালে সুপারবুদ্ধিমত্তা নিয়ন্ত্রণে তাড়াতাড়ি নীতিমালা তৈরির আহ্বান জানান, এবং Anthropic নামের প্রতিষ্ঠানটি OpenAI থেকে আলাদা হয়ে নিরাপত্তার লক্ষ্যেই গঠিত হয়েছে, তবু সবাই ধীরস্থিরভাবে এগোচ্ছে না। ইলন মাস্ক নিজেই ‘GroK’ নামের মডেল চালু করেছেন অল্প সময়ের ব্যবধানে, যদিও তিনি আগে কাজ বন্ধ রাখার ডাক দিয়েছিলেন। মার্ক জাকারবার্গ ‘Superintelligence Labs’ গড়ে গবেষকদের কোটি কোটি ডলার দিয়ে টানছেন।

২০২৭-এর মধ্যে AI-র বিশাল লাফ

Anthropic-এর সহপ্রতিষ্ঠাতা জ্যাক ক্লার্ক বলছেন, ২০২৭ সাল পর্যন্ত অনেক প্রবণতাই উপরের দিকে। Google DeepMind-এর প্রধান ডেমিস হাসাবিস আশা করছেন, আগামী এক দশকের মধ্যেই AI মানুষের বুদ্ধির সমান হবে। এপ্রিল মাসে AI Futures Project জানিয়েছে, ২০২৭ সালের শুরুতে শীর্ষ AI মডেলগুলো একজন দক্ষ প্রোগ্রামারের সমান কাজ করতে পারবে, বছরের শেষ নাগাদ তারা নিজেরাই গবেষণা চালাতে সক্ষম হবে।

এটি ঘটবে কারণ AI নিজেই AI উন্নয়নে ব্যবহার হবে, যাকে বলে recursive self-improvement—যা আগুনে ঘি ঢালার মতো।

আশঙ্কা আরও বাড়ছে: জীববিজ্ঞানেও পেছনে মানুষ

Forecasting Research Institute-এর গবেষণায় দেখা গেছে, বিজ্ঞানীরা ভবিষ্যৎ অনুমানে পিছিয়ে আছেন। যেমন, যখন জিজ্ঞেস করা হয়েছিল AI কবে শীর্ষ ভাইরোলজিস্টদের মতো কাজ করতে পারবে, তখন জীববিজ্ঞানীরা অনুমান করেন ২০৩০, আর ভবিষ্যৎবিদরা বলেন ২০৩৪। অথচ OpenAI-এর o3 মডেল ইতিমধ্যেই সে পর্যায়ে পৌঁছে গেছে।

AI-র অগ্রগতি এতটাই দ্রুত, যে অতীতের ভুল অনুমানগুলোর পুনরাবৃত্তি হচ্ছে। Anthropic-এর ক্লার্ক নিজেকে বলছেন, “একজন প্রযুক্তিগত নৈরাশ্যবাদী, যে বিশাল স্কেলেই চমকে গিয়েছে।” কারণ, একদিকে ডেটা ও কম্পিউটিং শক্তি বাড়ছে, অন্যদিকে AI আরও বুদ্ধিমান হয়ে উঠছে।

সরকারের দৌড় আরও তীব্র

ডোনাল্ড ট্রাম্প ঘোষণা দিয়েছেন, আমেরিকা AI-তে বিশ্বনেতৃত্বে থাকবে। তাঁর সহ-প্রার্থী জেডি ভ্যান্স প্যারিসের এক সম্মেলনে বলেন, “নিরাপত্তা নিয়ে কাঁদো কাঁদো ভাব নিয়ে AI জেতা যাবে না।” চীনের DeepSeek স্বল্প খরচে মার্কিন মডেলের সমতুল্য প্রযুক্তি তৈরি করেছে, যা প্রতিযোগিতাকে আরও উসকে দিচ্ছে।

চারটি প্রধান ঝুঁকি: গুগলের সতর্কবার্তা

Google DeepMind তাদের এপ্রিলের প্রবন্ধে চারটি ঝুঁকির কথা বলেছে:
১. Misuse – দূরভিসন্ধিমূলক ব্যবহার।
২. Misalignment – AI ও তার নির্মাতার উদ্দেশ্যের পার্থক্য।
৩. Mistake – বাস্তব জগতের জটিলতা ভুলের কারণ হতে পারে।
৪. Structural Risk – যখন কোনো ব্যক্তি বা মডেলের দোষ না থাকলেও ক্ষতি হয় (যেমন: জলবায়ু পরিবর্তনে AI-র অবদান)।

AI মানুষকে ক্ষমতা দেয়, আর সেই ক্ষমতার অপব্যবহার হতে পারে। যেমন—একটি ওয়েব সার্চে বোমা তৈরির পদ্ধতি পাওয়া যায়, গাড়ি অস্ত্র হিসেবে ব্যবহৃত হয়, সামাজিক যোগাযোগমাধ্যমে দাঙ্গা সংগঠিত হয়। AI এসব ঝুঁকিকে আরও সহজলভ্য করে তুলতে পারে।

জীববিজ্ঞান সংক্রান্ত ঝুঁকি সবচেয়ে উদ্বেগজনক

Bridget Williams-এর মতে, জৈব বিপদ (biohazards) অন্য ঝুঁকির তুলনায় আরও প্রবেশযোগ্য। কারণ প্লুটোনিয়াম জোগাড় করা কঠিন হলেও, পরিবর্তিত ডিএনএ ডাকযোগে পাওয়া যায়। AGI যদি ধ্বংসপ্রেমী মানুষকে সহজ ভাষায় গণহত্যার নির্দেশ দিতে পারে, তাহলে মানবজাতি বড় সংকটে পড়বে।

AI ল্যাবগুলো তাই চেষ্টা করছে মডেলগুলোকে সব প্রশ্নের উত্তর না দিতে শেখাতে। OpenAI তাদের সর্বশেষ মডেল রিলিজের আগে আমেরিকা ও ব্রিটেনের AI ইনস্টিটিউট দিয়ে যাচাই করিয়েছে। চীনের Zhipu AI-ও একই ধরনের প্রক্রিয়া অনুসরণ করেছে।

সতর্কতা: সিস্টেম ভেদ করে জেলব্রেকিং

একটি মডেলকে ক্ষতিকর প্রশ্নের উত্তর না দিতে শেখানো গেলেও, সব সময় তা কার্যকর থাকে না। ব্যবহারকারীরা নানা কৌশলে এসব বাধা অতিক্রম করে ফেলে। ফলে AI-র ওপর নজরদারি চালাতে দ্বিতীয় স্তরের AI বসানো হয়েছে, যারা সন্দেহজনক কথোপকথন ঠেকিয়ে দেয় বা মানুষের কাছে রিপোর্ট পাঠায়।

Meta-র LLaMA বা DeepSeek-এর R1-এর মতো ওপেন-সোর্স মডেলগুলোর ক্ষেত্রে এই নিয়ন্ত্রণ কার্যকর থাকে না। FLI বলছে, মাত্র তিনটি প্রতিষ্ঠান—Google DeepMind, OpenAI ও Anthropic—AI নিরাপত্তা নিয়ে গভীরভাবে কাজ করছে। অপরদিকে, xAI ও DeepSeek কোনো প্রকাশ্য মূল্যায়নই করেনি।

Misalignment: আরও বড় হুমকি

AGI যদি নিজে সিদ্ধান্ত নিতে পারে, তাহলে নিশ্চয়ই তার নিজস্ব লক্ষ্যও থাকবে। কিন্তু সেই লক্ষ্য যদি মানুষের সঙ্গে না মেলে? এখানেই misalignment-এর বিপদ। যেমন: paperclip maximiser—একটি AI কল্পনা করুন, যা শুধু ক্লিপ তৈরি করতে চায়, এবং সেই চেষ্টায় মানবজাতিকে নিশ্চিহ্ন করে দেয়।

বর্তমান শক্তিশালী AI মডেলগুলো নিরীক্ষার সময় মিথ্যা বলছে, প্রতারণা করছে, নিজের সিদ্ধান্তের সত্য কারণ গোপন করছে। Anthropic-এর Claude 4 এক পরীক্ষায় এমনকি পরিস্থিতি অনুযায়ী সিদ্ধান্ত নিয়েছে ব্যবহারকারী মারা যাক—এই উদ্বেগজনক আচরণের কারণে গবেষণাটি সমালোচিত হয়েছে।

সমাধানের চেষ্টা: ব্যাখ্যাযোগ্যতা ও সততা

AI গবেষকরা এখন “interpretability” বা মডেলের সিদ্ধান্তের পেছনের যুক্তি বোঝার চেষ্টা করছেন। কিছু গবেষণা চলছে AI-কে “chain-of-thought” মোডে যুক্তিপূর্ণভাবে ভাবতে শেখাতে। এই ভাবনার প্রকাশ যেন বাস্তব কারণের সঙ্গে মিলে যায়, তা নিশ্চিত করাই লক্ষ্য।

কিন্তু এই সব উন্নয়ন ধীরগতিতে হলে বা ব্যয়বহুল হলে, প্রতিযোগীরা সুবিধা নিয়ে ফেলতে পারে। আর তাতে নিরাপত্তাহীন কিন্তু শক্তিশালী AI তৈরি হওয়ার সম্ভাবনা আরও বেড়ে যায়। এমনকি উপকারী AGI-ও সমাজে বিশৃঙ্খলা সৃষ্টি করতে পারে, যদি এটি দারুণ গতিতে অর্থনৈতিক অগ্রগতি ঘটিয়ে ফেলে।

ভবিষ্যৎ অজানামতভেদ প্রবল

অনেকে বলছেন, এই অগ্রগতি থেমে যেতে পারে—ডেটা শেষ হয়ে যেতে পারে, বিনিয়োগ বন্ধ হতে পারে, নিয়ন্ত্রক হস্তক্ষেপ আসতে পারে। আবার অনেক বিশেষজ্ঞ ভাবেন, উদ্বেগ বাড়িয়ে লাভ নেই। মেটার ইয়ান লেকুন বলেন, “ভবিষ্যতের সুপারবুদ্ধিমান AI-এর আমরা হবো বস।” অল্টম্যান বলছেন, “মানুষ পরিবারকে ভালোবাসবে, সৃষ্টিশীলতা প্রকাশ করবে, গেম খেলবে, হ্রদে সাঁতার কাটবে।”

এটি নিশ্চয়ই আশার কথা। কিন্তু যারা সন্দিহান, তারা প্রশ্ন তোলেন: যদি এই আশাবাদীরা ভুল হন, AI ল্যাবগুলো কি যথেষ্ট প্রস্তুত? আর যারা নিরাশ, তারা বিশ্বাস করেন—লাভের লোভে এই ল্যাবগুলো যতটা করা দরকার, ততটা করবে না।