০৮:৪২ অপরাহ্ন, বৃহস্পতিবার, ২৫ ডিসেম্বর ২০২৫
সৌদিতে বিরল তুষারপাতের পর প্রশ্ন: সংযুক্ত আরব আমিরাতেও কি আবার তুষারপাত সম্ভব? যে রিকশায় গুলিবিদ্ধ হন হাদি, সেই চালকের আদালতে জবানবন্দি তারেক রহমানের নেতৃত্বে নির্বাচনে আমরা জয়ী হবো: মির্জা ফখরুল পারমাণবিক সাবমেরিন থেকে কে-৪ ক্ষেপণাস্ত্রের সফল পরীক্ষা ভারতের তারেক রহমানের প্রত্যাবর্তনে বহুদলীয় গণতন্ত্র আরও শক্তিশালী হবে: নাহিদ ঢাকা-১৫ আসনে জামায়াত আমিরের পক্ষে মনোনয়নপত্র সংগ্রহ মগবাজারে ককটেল বিস্ফোরণে শ্রমিক নিহত, অজ্ঞাতদের বিরুদ্ধে মামলা নির্বাচনপ্রত্যাশীদের জন্য অনলাইনে কর রিটার্ন দাখিলে বিশেষ ব্যবস্থা এনবিআরের মাকে দেখতে এভারকেয়ার হাসপাতালে তারেক রহমান মিয়ানমারের অসম্পূর্ণ সাধারণ নির্বাচন: জানা দরকার পাঁচটি বিষয়

AI তার সৃষ্টিকর্তার থেকে এগিয়ে যাচ্ছে

  • Sarakhon Report
  • ০৬:৪৩:৪৩ অপরাহ্ন, শনিবার, ২৪ অগাস্ট ২০২৪
  • 78

সারাক্ষণ ডেস্ক

 দুঃখিত ডেভ,আমি এটি করতে পারি না। “2001: এ স্পেস ওডিসি” চলচ্চিত্রের হত্যাকারী কম্পিউটার HAL 9000-এর মতো, বিজ্ঞান কল্পকাহিনীতে কৃত্রিম বুদ্ধিমত্তার (AI)উদাহরণগুলো প্রায়শই তাদের মানব সৃষ্টিকর্তাদের পেছনে ফেলে দেয়। ChatGPT-এর সাম্প্রতিক অগ্রগতির মতো AI-এ অগ্রগতি আন্তর্জাতিক এজেন্ডায় “অস্তিত্বগত ঝুঁকি” নিয়ে প্রশ্ন উত্থাপন করেছে।২০২৩ সালের মার্চ মাসে ইলন মাস্কসহ বেশ কিছু প্রযুক্তি নেতৃবৃন্দ AI-এর উন্নয়নে নিরাপত্তা উদ্বেগের জন্য কমপক্ষে ছয় মাসের বিরতির আহ্বান জানিয়েছেন। গত শরতে ব্রিটেনে AI-নিরাপত্তা সম্মেলনে, রাজনীতিবিদ ও বিজ্ঞানীরা এই সম্ভাব্য বিপজ্জনক প্রযুক্তিকে কীভাবে নিয়ন্ত্রণ করা যায় তা নিয়ে আলোচনা করেছেন।

তবে আজকের সময়ে এসে, এই প্রযুক্তি দ্রুতগতিতে এগিয়ে যাচ্ছে এমন ভয়গুলোকে প্রতিস্থাপন করে, AI বর্তমান ফর্মে প্রত্যাশার চেয়ে কম উপযোগী হতে পারে এবং প্রযুক্তি সংস্থাগুলো এটিকে অতিরিক্ত হাইপ করেছে বলে উদ্বেগ দেখা দিয়েছে। একই সময়ে, নিয়ম তৈরির প্রক্রিয়া নীতিনির্ধারকদেরকে বিদ্যমান সমস্যাগুলো নিয়ে চিন্তা করতে বাধ্য করেছে, যেমন পক্ষপাত, বৈষম্য এবং মেধাস্বত্বের লঙ্ঘন। AI-এর স্কুল ব্রিফগুলোর চূড়ান্ত অধ্যায়টি ব্যাখ্যা করে, নিয়ন্ত্রণের ফোকাস অস্পষ্ট, অনুমানমূলক ঝুঁকি থেকে নির্দিষ্ট এবং তাত্ক্ষণিক ঝুঁকির দিকে স্থানান্তরিত হয়েছে। এটি একটি ভালো দিক।

উদাহরণস্বরূপ, ঋণ বা বন্ধক অনুমোদনের জন্য মানুষের মূল্যায়ন করার জন্য ব্যবহৃত AI-ভিত্তিক সিস্টেমগুলো বর্ণ বৈষম্য প্রদর্শন করতে দেখা গেছে। AI নিয়োগের সিস্টেমগুলো পুরুষদের পক্ষে বেশি পক্ষপাতী বলে মনে হচ্ছে। আইন প্রয়োগকারী সংস্থাগুলো দ্বারা ব্যবহৃত মুখ-স্বীকৃতি সিস্টেমগুলো কালো মানুষদের ভুলভাবে সনাক্ত করার প্রবণতা দেখায়। AI সরঞ্জামগুলো “ডিপফেক” ভিডিও তৈরি করতে ব্যবহার করা যেতে পারে, যার মধ্যে পর্নোগ্রাফিক ভিডিওও রয়েছে, যা লোকজনকে হয়রানি করতে বা রাজনীতিবিদদের মতামত ভুলভাবে উপস্থাপন করতে ব্যবহার করা যেতে পারে। শিল্পী, সংগীতজ্ঞ এবং সংবাদ সংস্থাগুলো বলেছে যে তাদের কাজ অনুমতি ছাড়াই AI মডেলগুলোকে প্রশিক্ষণ দিতে ব্যবহার করা হয়েছে। এবং ব্যক্তিগত তথ্য প্রশিক্ষণের উদ্দেশ্যে ব্যবহার করা কি আইনী কিনা তা নিয়ে অনিশ্চয়তা রয়েছে।

ফলস্বরূপ, নতুন আইনগুলোর প্রবাহ শুরু হয়েছে। উদাহরণস্বরূপ, ইউরোপীয় ইউনিয়নের AI আইন অনুযায়ী, আইন-প্রয়োগকারী সংস্থাগুলো দ্বারা সরাসরি মুখ-স্বীকৃতি সিস্টেমের ব্যবহার নিষিদ্ধ করা হবে, AI-এর মাধ্যমে পূর্বাভাস নির্ধারণ করা, অনুভূতি স্বীকৃতি এবং চেতনাতীত বিজ্ঞাপনও নিষিদ্ধ করা হবে। অনেক দেশ AI-জেনারেটেড ভিডিওগুলো লেবেল করার নিয়ম প্রবর্তন করেছে। দক্ষিণ কোরিয়া নির্বাচনের ৯০ দিনের মধ্যে রাজনীতিবিদদের ডিপফেক ভিডিও নিষিদ্ধ করেছে; সিঙ্গাপুরও হয়তো একই পথে এগোতে পারে।

কিছু ক্ষেত্রে বিদ্যমান নিয়মগুলো পরিষ্কার করতে হবে। অ্যাপল এবং মেটা উভয়েই বলেছে যে তারা ইউরোপীয় ইউনিয়নে কিছু AI পণ্য প্রকাশ করবে না, ব্যক্তিগত তথ্য ব্যবহারের নিয়মের অস্পষ্টতার কারণে। (দ্য ইকোনমিস্টে একটি অনলাইন প্রবন্ধে মেটার প্রধান নির্বাহী মার্ক জুকারবার্গ এবং স্পটিফাইয়ের প্রধান নির্বাহী ড্যানিয়েল এক যুক্তি দিয়েছেন যে এই অনিশ্চয়তার কারণে ইউরোপীয় ভোক্তারা সর্বশেষ প্রযুক্তিতে প্রবেশ করতে পারছেন না।) এবং কিছু বিষয়—যেমন প্রশিক্ষণের উদ্দেশ্যে কপিরাইটযুক্ত উপকরণ ব্যবহারের অনুমতি “ফেয়ার ইউজ” নিয়মের অধীনে বৈধ কিনা তা আদালতে সিদ্ধান্ত নেওয়া যেতে পারে।

AI-এ বিদ্যমান সমস্যাগুলোর সমাধানের জন্য এই প্রচেষ্টাগুলোর মধ্যে কিছু কিছু অন্যগুলোর তুলনায় ভালভাবে কাজ করবে। তবে তারা প্রতিফলিত করে যে আইন প্রণেতারা বিদ্যমান AI সিস্টেমগুলির সাথে সম্পর্কিত বাস্তব জীবনের ঝুঁকির উপর দৃষ্টি নিবদ্ধ করার জন্য বেছে নিচ্ছেন। এর মানে এই নয় যে নিরাপত্তা ঝুঁকিগুলো উপেক্ষা করা উচিত; সময়মতো নির্দিষ্ট নিরাপত্তা নিয়ম প্রয়োজন হতে পারে। তবে ভবিষ্যতের অস্তিত্বগত ঝুঁকির প্রকৃতি এবং পরিমাণ নির্ধারণ করা কঠিন, যা এখন এটি নিয়ন্ত্রণ করা কঠিন করে তুলেছে। এটি দেখতে, ক্যালিফোর্নিয়ার রাজ্য আইনসভায় বিতর্কিত আইন SB 1047-এ নজর দেওয়া যেতে পারে।

পক্ষপাতিত্বকারীরা বলছেন যে বিলটি একটি বিপথগামী AI-এর মাধ্যমে বিপর্যয়কর ঘটনা—”বৃহৎ ক্ষয়ক্ষতি” বা $500 মিলিয়ন ডলারেরও বেশি ক্ষয়ক্ষতির হাত থেকে রক্ষা করবে, রাসায়নিক, জৈবিক,তেজস্ক্রিয় বা পারমাণবিক অস্ত্রের ব্যবহার বা গুরুত্বপূর্ণ অবকাঠামোর উপর সাইবার আক্রমণের মাধ্যমে। এটি বড় AI মডেলগুলির সৃষ্টিকর্তাদের নিরাপত্তা প্রোটোকল মেনে চলা এবং একটি “কিল সুইচ” অন্তর্ভুক্ত করতে বাধ্য করবে। সমালোচকরা বলছেন এর ফ্রেমিং বিজ্ঞানের চেয়ে বেশি ধর্মীয় কল্পনা এবং এর অস্পষ্ট শব্দকোষ কোম্পানিগুলোকে দুর্বল করবে এবং একাডেমিক স্বাধীনতাকে বাধাগ্রস্ত করবে। AI গবেষক অ্যান্ড্রু এনজি সতর্ক করেছেন যে এটি গবেষকদেরকে “অচল” করে দেবে, কারণ তারা আইন ভাঙার ব্যাপারে নিশ্চিত হবে না।

গত মাসে এর বিরোধীদের কাছ থেকে তীব্র লবিংয়ের পর, বিলটির কিছু দিক কিছুটা পরিবর্তন করা হয়েছে। এর কিছু অংশ যেমন AI সংস্থাগুলির হুইসলব্লোয়ারদের জন্য সুরক্ষা অর্থবহ। তবে বেশিরভাগ ক্ষেত্রেই তা একটি কল্পনাপ্রসূত বিশ্বাসের উপর ভিত্তি করে তৈরি করা হয়েছে যে AI বৃহৎ স্কেলে বিপর্যয়কর ক্ষতির ঝুঁকি বহন করে—যদিও পারমাণবিক বা জৈবিক অস্ত্র তৈরি করতে এমন সরঞ্জাম এবং উপকরণের প্রয়োজন যা কঠোরভাবে নিয়ন্ত্রিত। যদি বিলটি ক্যালিফোর্নিয়ার গভর্নর গ্যাভিন নিউজমের টেবিলে পৌঁছায়, তবে তাকে এটি ভেটো করা উচিত। বর্তমান পরিস্থিতিতে, একটি বড় AI মডেল কীভাবে মৃত্যু বা শারীরিক ধ্বংস ঘটাতে পারে তা বোঝা কঠিন। তবে অনেক উপায়ে AI সিস্টেমগুলো ইতিমধ্যেই অশারীরিক ক্ষতি করতে পারে এবং করছে—তাই আইন প্রণেতারা, আপাতত, এই বিষয়গুলোতে মনোনিবেশ করছেন।

জনপ্রিয় সংবাদ

সৌদিতে বিরল তুষারপাতের পর প্রশ্ন: সংযুক্ত আরব আমিরাতেও কি আবার তুষারপাত সম্ভব?

AI তার সৃষ্টিকর্তার থেকে এগিয়ে যাচ্ছে

০৬:৪৩:৪৩ অপরাহ্ন, শনিবার, ২৪ অগাস্ট ২০২৪

সারাক্ষণ ডেস্ক

 দুঃখিত ডেভ,আমি এটি করতে পারি না। “2001: এ স্পেস ওডিসি” চলচ্চিত্রের হত্যাকারী কম্পিউটার HAL 9000-এর মতো, বিজ্ঞান কল্পকাহিনীতে কৃত্রিম বুদ্ধিমত্তার (AI)উদাহরণগুলো প্রায়শই তাদের মানব সৃষ্টিকর্তাদের পেছনে ফেলে দেয়। ChatGPT-এর সাম্প্রতিক অগ্রগতির মতো AI-এ অগ্রগতি আন্তর্জাতিক এজেন্ডায় “অস্তিত্বগত ঝুঁকি” নিয়ে প্রশ্ন উত্থাপন করেছে।২০২৩ সালের মার্চ মাসে ইলন মাস্কসহ বেশ কিছু প্রযুক্তি নেতৃবৃন্দ AI-এর উন্নয়নে নিরাপত্তা উদ্বেগের জন্য কমপক্ষে ছয় মাসের বিরতির আহ্বান জানিয়েছেন। গত শরতে ব্রিটেনে AI-নিরাপত্তা সম্মেলনে, রাজনীতিবিদ ও বিজ্ঞানীরা এই সম্ভাব্য বিপজ্জনক প্রযুক্তিকে কীভাবে নিয়ন্ত্রণ করা যায় তা নিয়ে আলোচনা করেছেন।

তবে আজকের সময়ে এসে, এই প্রযুক্তি দ্রুতগতিতে এগিয়ে যাচ্ছে এমন ভয়গুলোকে প্রতিস্থাপন করে, AI বর্তমান ফর্মে প্রত্যাশার চেয়ে কম উপযোগী হতে পারে এবং প্রযুক্তি সংস্থাগুলো এটিকে অতিরিক্ত হাইপ করেছে বলে উদ্বেগ দেখা দিয়েছে। একই সময়ে, নিয়ম তৈরির প্রক্রিয়া নীতিনির্ধারকদেরকে বিদ্যমান সমস্যাগুলো নিয়ে চিন্তা করতে বাধ্য করেছে, যেমন পক্ষপাত, বৈষম্য এবং মেধাস্বত্বের লঙ্ঘন। AI-এর স্কুল ব্রিফগুলোর চূড়ান্ত অধ্যায়টি ব্যাখ্যা করে, নিয়ন্ত্রণের ফোকাস অস্পষ্ট, অনুমানমূলক ঝুঁকি থেকে নির্দিষ্ট এবং তাত্ক্ষণিক ঝুঁকির দিকে স্থানান্তরিত হয়েছে। এটি একটি ভালো দিক।

উদাহরণস্বরূপ, ঋণ বা বন্ধক অনুমোদনের জন্য মানুষের মূল্যায়ন করার জন্য ব্যবহৃত AI-ভিত্তিক সিস্টেমগুলো বর্ণ বৈষম্য প্রদর্শন করতে দেখা গেছে। AI নিয়োগের সিস্টেমগুলো পুরুষদের পক্ষে বেশি পক্ষপাতী বলে মনে হচ্ছে। আইন প্রয়োগকারী সংস্থাগুলো দ্বারা ব্যবহৃত মুখ-স্বীকৃতি সিস্টেমগুলো কালো মানুষদের ভুলভাবে সনাক্ত করার প্রবণতা দেখায়। AI সরঞ্জামগুলো “ডিপফেক” ভিডিও তৈরি করতে ব্যবহার করা যেতে পারে, যার মধ্যে পর্নোগ্রাফিক ভিডিওও রয়েছে, যা লোকজনকে হয়রানি করতে বা রাজনীতিবিদদের মতামত ভুলভাবে উপস্থাপন করতে ব্যবহার করা যেতে পারে। শিল্পী, সংগীতজ্ঞ এবং সংবাদ সংস্থাগুলো বলেছে যে তাদের কাজ অনুমতি ছাড়াই AI মডেলগুলোকে প্রশিক্ষণ দিতে ব্যবহার করা হয়েছে। এবং ব্যক্তিগত তথ্য প্রশিক্ষণের উদ্দেশ্যে ব্যবহার করা কি আইনী কিনা তা নিয়ে অনিশ্চয়তা রয়েছে।

ফলস্বরূপ, নতুন আইনগুলোর প্রবাহ শুরু হয়েছে। উদাহরণস্বরূপ, ইউরোপীয় ইউনিয়নের AI আইন অনুযায়ী, আইন-প্রয়োগকারী সংস্থাগুলো দ্বারা সরাসরি মুখ-স্বীকৃতি সিস্টেমের ব্যবহার নিষিদ্ধ করা হবে, AI-এর মাধ্যমে পূর্বাভাস নির্ধারণ করা, অনুভূতি স্বীকৃতি এবং চেতনাতীত বিজ্ঞাপনও নিষিদ্ধ করা হবে। অনেক দেশ AI-জেনারেটেড ভিডিওগুলো লেবেল করার নিয়ম প্রবর্তন করেছে। দক্ষিণ কোরিয়া নির্বাচনের ৯০ দিনের মধ্যে রাজনীতিবিদদের ডিপফেক ভিডিও নিষিদ্ধ করেছে; সিঙ্গাপুরও হয়তো একই পথে এগোতে পারে।

কিছু ক্ষেত্রে বিদ্যমান নিয়মগুলো পরিষ্কার করতে হবে। অ্যাপল এবং মেটা উভয়েই বলেছে যে তারা ইউরোপীয় ইউনিয়নে কিছু AI পণ্য প্রকাশ করবে না, ব্যক্তিগত তথ্য ব্যবহারের নিয়মের অস্পষ্টতার কারণে। (দ্য ইকোনমিস্টে একটি অনলাইন প্রবন্ধে মেটার প্রধান নির্বাহী মার্ক জুকারবার্গ এবং স্পটিফাইয়ের প্রধান নির্বাহী ড্যানিয়েল এক যুক্তি দিয়েছেন যে এই অনিশ্চয়তার কারণে ইউরোপীয় ভোক্তারা সর্বশেষ প্রযুক্তিতে প্রবেশ করতে পারছেন না।) এবং কিছু বিষয়—যেমন প্রশিক্ষণের উদ্দেশ্যে কপিরাইটযুক্ত উপকরণ ব্যবহারের অনুমতি “ফেয়ার ইউজ” নিয়মের অধীনে বৈধ কিনা তা আদালতে সিদ্ধান্ত নেওয়া যেতে পারে।

AI-এ বিদ্যমান সমস্যাগুলোর সমাধানের জন্য এই প্রচেষ্টাগুলোর মধ্যে কিছু কিছু অন্যগুলোর তুলনায় ভালভাবে কাজ করবে। তবে তারা প্রতিফলিত করে যে আইন প্রণেতারা বিদ্যমান AI সিস্টেমগুলির সাথে সম্পর্কিত বাস্তব জীবনের ঝুঁকির উপর দৃষ্টি নিবদ্ধ করার জন্য বেছে নিচ্ছেন। এর মানে এই নয় যে নিরাপত্তা ঝুঁকিগুলো উপেক্ষা করা উচিত; সময়মতো নির্দিষ্ট নিরাপত্তা নিয়ম প্রয়োজন হতে পারে। তবে ভবিষ্যতের অস্তিত্বগত ঝুঁকির প্রকৃতি এবং পরিমাণ নির্ধারণ করা কঠিন, যা এখন এটি নিয়ন্ত্রণ করা কঠিন করে তুলেছে। এটি দেখতে, ক্যালিফোর্নিয়ার রাজ্য আইনসভায় বিতর্কিত আইন SB 1047-এ নজর দেওয়া যেতে পারে।

পক্ষপাতিত্বকারীরা বলছেন যে বিলটি একটি বিপথগামী AI-এর মাধ্যমে বিপর্যয়কর ঘটনা—”বৃহৎ ক্ষয়ক্ষতি” বা $500 মিলিয়ন ডলারেরও বেশি ক্ষয়ক্ষতির হাত থেকে রক্ষা করবে, রাসায়নিক, জৈবিক,তেজস্ক্রিয় বা পারমাণবিক অস্ত্রের ব্যবহার বা গুরুত্বপূর্ণ অবকাঠামোর উপর সাইবার আক্রমণের মাধ্যমে। এটি বড় AI মডেলগুলির সৃষ্টিকর্তাদের নিরাপত্তা প্রোটোকল মেনে চলা এবং একটি “কিল সুইচ” অন্তর্ভুক্ত করতে বাধ্য করবে। সমালোচকরা বলছেন এর ফ্রেমিং বিজ্ঞানের চেয়ে বেশি ধর্মীয় কল্পনা এবং এর অস্পষ্ট শব্দকোষ কোম্পানিগুলোকে দুর্বল করবে এবং একাডেমিক স্বাধীনতাকে বাধাগ্রস্ত করবে। AI গবেষক অ্যান্ড্রু এনজি সতর্ক করেছেন যে এটি গবেষকদেরকে “অচল” করে দেবে, কারণ তারা আইন ভাঙার ব্যাপারে নিশ্চিত হবে না।

গত মাসে এর বিরোধীদের কাছ থেকে তীব্র লবিংয়ের পর, বিলটির কিছু দিক কিছুটা পরিবর্তন করা হয়েছে। এর কিছু অংশ যেমন AI সংস্থাগুলির হুইসলব্লোয়ারদের জন্য সুরক্ষা অর্থবহ। তবে বেশিরভাগ ক্ষেত্রেই তা একটি কল্পনাপ্রসূত বিশ্বাসের উপর ভিত্তি করে তৈরি করা হয়েছে যে AI বৃহৎ স্কেলে বিপর্যয়কর ক্ষতির ঝুঁকি বহন করে—যদিও পারমাণবিক বা জৈবিক অস্ত্র তৈরি করতে এমন সরঞ্জাম এবং উপকরণের প্রয়োজন যা কঠোরভাবে নিয়ন্ত্রিত। যদি বিলটি ক্যালিফোর্নিয়ার গভর্নর গ্যাভিন নিউজমের টেবিলে পৌঁছায়, তবে তাকে এটি ভেটো করা উচিত। বর্তমান পরিস্থিতিতে, একটি বড় AI মডেল কীভাবে মৃত্যু বা শারীরিক ধ্বংস ঘটাতে পারে তা বোঝা কঠিন। তবে অনেক উপায়ে AI সিস্টেমগুলো ইতিমধ্যেই অশারীরিক ক্ষতি করতে পারে এবং করছে—তাই আইন প্রণেতারা, আপাতত, এই বিষয়গুলোতে মনোনিবেশ করছেন।