১২:২৩ পূর্বাহ্ন, বৃহস্পতিবার, ২৫ ডিসেম্বর ২০২৫
তীব্র তাপে বিশ্বজুড়ে বিদ্যুৎ গ্রিডে চাপ বিআরটিএতে সবচেয়ে বেশি দুর্নীতি, আইনশৃঙ্খলা ও পাসপোর্ট দপ্তরও শীর্ষে মগবাজার ফ্লাইওভার থেকে বোমা নিক্ষেপ, নিহত এক পথচারী অসম ভিআইপি সুবিধা নির্বাচন আচরণবিধি লঙ্ঘন: নির্বাচন কমিশনকে জানাল জামায়াত বড়দিন ও সাপ্তাহিক ছুটিতে টানা তিন দিন বন্ধ ব্যাংক ও শেয়ারবাজার বৃহস্পতিবার দেশে পালিত হবে বড়দিন, উৎসব ঘিরে শুভেচ্ছা ও বাড়তি নিরাপত্তা উপেক্ষিত রুমিন ফারহানা স্বতন্ত্র প্রার্থী হিসেবে মনোনয়ন ফরম সংগ্রহ তরুণ ও ক্ষুদ্র উদ্যোক্তাদের কর্মসংস্থানে বিশ্বব্যাংকের নতুন অর্থায়ন, বাংলাদেশে অনুমোদন ১৫০ কোটি ডলার তারেক রহমানের প্রত্যাবর্তনে সরকারের স্বাগত, পূর্ণ সহযোগিতার আশ্বাস গাজীপুরে জাসাস নেতাকে ছুরিকাঘাতে হত্যা

কেন এআই প্রোগ্রামারদের যান্ত্রিক প্রকৌশলীর মতো ভাবতে হবে

এআই মডেলের অন্তর্নিহিত ঝুঁকি

বড় ভাষা মডেল (LLM)–এর একটি মূল দুর্বলতা হলো তারা কোড আর ডেটার মধ্যে পার্থক্য করতে পারে না। এর ফলে তারা “প্রম্পট ইনজেকশন” নামে পরিচিত আক্রমণের শিকার হতে পারে। এ ধরনের আক্রমণে মডেলকে এমন কাজ করানো যায়, যা তার করা উচিত নয়। কখনো এটি শুধু বিব্রতকর, যেমন কোনো কাস্টমার-সাপোর্ট বটকে জলদস্যুর মতো কথা বলাতে বাধ্য করা। আবার অনেক সময় এটি মারাত্মক ক্ষতির কারণ হয়।

সবচেয়ে বড় ঝুঁকি তৈরি হয় যখন কোনো প্রতিষ্ঠান কর্মীদের জন্য শক্তিশালী এআই সহকারী তৈরি করতে গিয়ে একই সঙ্গে তিনটি জিনিস অনুমোদন দেয়: অবিশ্বস্ত ডেটা অ্যাক্সেস, গোপন তথ্য পড়ার ক্ষমতা এবং বাইরের বিশ্বের সঙ্গে যোগাযোগের সুযোগ। এই তিনটি মিলেই গড়ে ওঠে “প্রাণঘাতী ত্রয়ী”। ব্যবহারকারীরাও অনিচ্ছাকৃতভাবে ভুল অ্যাপ ইন্সটল করে একই পরিস্থিতি তৈরি করতে পারেন। তাই নিরাপদ এআই ব্যবহারের দায় শুধু প্রকৌশলীদের নয়, সাধারণ ব্যবহারকারীদেরও।

প্রকৌশলীর মতো ভাবনার প্রয়োজন

প্রথম প্রতিরক্ষা লাইন অবশ্যই উন্নত এআই ইঞ্জিনিয়ারিং। এর মানে প্রোগ্রামারদের যান্ত্রিক প্রকৌশলীর মতো করে ভাবতে হবে। ভিক্টোরিয়ান যুগে ব্রিটিশ প্রকৌশলীরা যখন সেতু বানাতেন, তখন তারা উপকরণের মান সম্পর্কে নিশ্চিত ছিলেন না। অনেক সময় লোহার গুণগত মান খারাপ হতো। তাই তারা নিরাপত্তা বাড়াতে কাঠামো অতিরিক্ত মজবুত করে তৈরি করতেন, যাতে ভাঙনের ঝুঁকি কমে। এর ফলেই অনেক স্থাপনা শতাব্দীর পর শতাব্দী টিকে গেছে।

কিন্তু এআই নিরাপত্তা ক্ষেত্রটি এখনো সেইভাবে ভাবে না। প্রচলিত সফটওয়্যার কোডিং নির্দিষ্ট (deterministic) পদ্ধতির উপর দাঁড়ানো—একটি বাগ ধরা পড়লে সেটি ঠিক করা হয়, আর ঠিক হয়ে গেলে সমস্যা মিটে যায়। এআই প্রোগ্রামাররাও মনে করেন যে বেশি ডেটা বা উন্নত প্রম্পট ব্যবহার করলেই ঝুঁকি দূর হবে। যদিও এতে ঝুঁকি কমে, পুরোপুরি দূর হয় না। কারণ LLM হলো সম্ভাবনাভিত্তিক (probabilistic)—এদের আউটপুট সবসময় পূর্বনির্ধারিত নয়। তাই প্রচলিত নিরাপত্তা চিন্তাধারা এখানে যথেষ্ট নয়।

ঝুঁকি মোকাবেলার নতুন ধারা

এই চ্যালেঞ্জ মোকাবিলার জন্য শারীরিক প্রকৌশলের মতো নিরাপত্তা মার্জিন, ঝুঁকি গ্রহণযোগ্যতা এবং ত্রুটি সহনশীলতার ধারণা এআই–এ প্রয়োগ করতে হবে। এর মানে হতে পারে—প্রয়োজনের তুলনায় শক্তিশালী মডেল ব্যবহার করা, যাতে প্রতারণার সুযোগ কমে। আবার বহিরাগত উৎস থেকে আসা প্রশ্নের সংখ্যায় সীমা নির্ধারণ করা যেতে পারে, ক্ষতির সম্ভাবনা অনুযায়ী।

এছাড়া নিরাপত্তার আরেকটি মূলনীতি হলো “নিরাপদ ব্যর্থতা”। অর্থাৎ, কোনো এআই সিস্টেমকে যদি গোপনীয় তথ্য দিতেই হয়, তবে সেটিকে একসাথে সব নিয়ন্ত্রণ দেওয়া উচিত নয়।

ভার্চুয়াল জগতের সেতু

যেমন বাস্তব সেতুর একটি ওজনসীমা থাকে, তেমনি এআই সিস্টেমের ক্ষেত্রেও ঝুঁকির সীমা নির্ধারণের সময় এসেছে। সেতুর মতোই এই সীমা বাস্তব সহনক্ষমতার অনেক নিচে নির্ধারণ করা হয়, যাতে অপ্রত্যাশিত পরিস্থিতিতেও নিরাপত্তা বজায় থাকে। এআই–এর ক্ষেত্রেও একইভাবে অতিরিক্ত নিরাপত্তা নিশ্চিত করতে হবে।

জনপ্রিয় সংবাদ

তীব্র তাপে বিশ্বজুড়ে বিদ্যুৎ গ্রিডে চাপ

কেন এআই প্রোগ্রামারদের যান্ত্রিক প্রকৌশলীর মতো ভাবতে হবে

০৪:৫৯:২১ অপরাহ্ন, শনিবার, ২৭ সেপ্টেম্বর ২০২৫

এআই মডেলের অন্তর্নিহিত ঝুঁকি

বড় ভাষা মডেল (LLM)–এর একটি মূল দুর্বলতা হলো তারা কোড আর ডেটার মধ্যে পার্থক্য করতে পারে না। এর ফলে তারা “প্রম্পট ইনজেকশন” নামে পরিচিত আক্রমণের শিকার হতে পারে। এ ধরনের আক্রমণে মডেলকে এমন কাজ করানো যায়, যা তার করা উচিত নয়। কখনো এটি শুধু বিব্রতকর, যেমন কোনো কাস্টমার-সাপোর্ট বটকে জলদস্যুর মতো কথা বলাতে বাধ্য করা। আবার অনেক সময় এটি মারাত্মক ক্ষতির কারণ হয়।

সবচেয়ে বড় ঝুঁকি তৈরি হয় যখন কোনো প্রতিষ্ঠান কর্মীদের জন্য শক্তিশালী এআই সহকারী তৈরি করতে গিয়ে একই সঙ্গে তিনটি জিনিস অনুমোদন দেয়: অবিশ্বস্ত ডেটা অ্যাক্সেস, গোপন তথ্য পড়ার ক্ষমতা এবং বাইরের বিশ্বের সঙ্গে যোগাযোগের সুযোগ। এই তিনটি মিলেই গড়ে ওঠে “প্রাণঘাতী ত্রয়ী”। ব্যবহারকারীরাও অনিচ্ছাকৃতভাবে ভুল অ্যাপ ইন্সটল করে একই পরিস্থিতি তৈরি করতে পারেন। তাই নিরাপদ এআই ব্যবহারের দায় শুধু প্রকৌশলীদের নয়, সাধারণ ব্যবহারকারীদেরও।

প্রকৌশলীর মতো ভাবনার প্রয়োজন

প্রথম প্রতিরক্ষা লাইন অবশ্যই উন্নত এআই ইঞ্জিনিয়ারিং। এর মানে প্রোগ্রামারদের যান্ত্রিক প্রকৌশলীর মতো করে ভাবতে হবে। ভিক্টোরিয়ান যুগে ব্রিটিশ প্রকৌশলীরা যখন সেতু বানাতেন, তখন তারা উপকরণের মান সম্পর্কে নিশ্চিত ছিলেন না। অনেক সময় লোহার গুণগত মান খারাপ হতো। তাই তারা নিরাপত্তা বাড়াতে কাঠামো অতিরিক্ত মজবুত করে তৈরি করতেন, যাতে ভাঙনের ঝুঁকি কমে। এর ফলেই অনেক স্থাপনা শতাব্দীর পর শতাব্দী টিকে গেছে।

কিন্তু এআই নিরাপত্তা ক্ষেত্রটি এখনো সেইভাবে ভাবে না। প্রচলিত সফটওয়্যার কোডিং নির্দিষ্ট (deterministic) পদ্ধতির উপর দাঁড়ানো—একটি বাগ ধরা পড়লে সেটি ঠিক করা হয়, আর ঠিক হয়ে গেলে সমস্যা মিটে যায়। এআই প্রোগ্রামাররাও মনে করেন যে বেশি ডেটা বা উন্নত প্রম্পট ব্যবহার করলেই ঝুঁকি দূর হবে। যদিও এতে ঝুঁকি কমে, পুরোপুরি দূর হয় না। কারণ LLM হলো সম্ভাবনাভিত্তিক (probabilistic)—এদের আউটপুট সবসময় পূর্বনির্ধারিত নয়। তাই প্রচলিত নিরাপত্তা চিন্তাধারা এখানে যথেষ্ট নয়।

ঝুঁকি মোকাবেলার নতুন ধারা

এই চ্যালেঞ্জ মোকাবিলার জন্য শারীরিক প্রকৌশলের মতো নিরাপত্তা মার্জিন, ঝুঁকি গ্রহণযোগ্যতা এবং ত্রুটি সহনশীলতার ধারণা এআই–এ প্রয়োগ করতে হবে। এর মানে হতে পারে—প্রয়োজনের তুলনায় শক্তিশালী মডেল ব্যবহার করা, যাতে প্রতারণার সুযোগ কমে। আবার বহিরাগত উৎস থেকে আসা প্রশ্নের সংখ্যায় সীমা নির্ধারণ করা যেতে পারে, ক্ষতির সম্ভাবনা অনুযায়ী।

এছাড়া নিরাপত্তার আরেকটি মূলনীতি হলো “নিরাপদ ব্যর্থতা”। অর্থাৎ, কোনো এআই সিস্টেমকে যদি গোপনীয় তথ্য দিতেই হয়, তবে সেটিকে একসাথে সব নিয়ন্ত্রণ দেওয়া উচিত নয়।

ভার্চুয়াল জগতের সেতু

যেমন বাস্তব সেতুর একটি ওজনসীমা থাকে, তেমনি এআই সিস্টেমের ক্ষেত্রেও ঝুঁকির সীমা নির্ধারণের সময় এসেছে। সেতুর মতোই এই সীমা বাস্তব সহনক্ষমতার অনেক নিচে নির্ধারণ করা হয়, যাতে অপ্রত্যাশিত পরিস্থিতিতেও নিরাপত্তা বজায় থাকে। এআই–এর ক্ষেত্রেও একইভাবে অতিরিক্ত নিরাপত্তা নিশ্চিত করতে হবে।