সারাক্ষণ ডেস্ক
দুঃখিত ডেভ,আমি এটি করতে পারি না। “2001: এ স্পেস ওডিসি” চলচ্চিত্রের হত্যাকারী কম্পিউটার HAL 9000-এর মতো, বিজ্ঞান কল্পকাহিনীতে কৃত্রিম বুদ্ধিমত্তার (AI)উদাহরণগুলো প্রায়শই তাদের মানব সৃষ্টিকর্তাদের পেছনে ফেলে দেয়। ChatGPT-এর সাম্প্রতিক অগ্রগতির মতো AI-এ অগ্রগতি আন্তর্জাতিক এজেন্ডায় “অস্তিত্বগত ঝুঁকি” নিয়ে প্রশ্ন উত্থাপন করেছে।২০২৩ সালের মার্চ মাসে ইলন মাস্কসহ বেশ কিছু প্রযুক্তি নেতৃবৃন্দ AI-এর উন্নয়নে নিরাপত্তা উদ্বেগের জন্য কমপক্ষে ছয় মাসের বিরতির আহ্বান জানিয়েছেন। গত শরতে ব্রিটেনে AI-নিরাপত্তা সম্মেলনে, রাজনীতিবিদ ও বিজ্ঞানীরা এই সম্ভাব্য বিপজ্জনক প্রযুক্তিকে কীভাবে নিয়ন্ত্রণ করা যায় তা নিয়ে আলোচনা করেছেন।
তবে আজকের সময়ে এসে, এই প্রযুক্তি দ্রুতগতিতে এগিয়ে যাচ্ছে এমন ভয়গুলোকে প্রতিস্থাপন করে, AI বর্তমান ফর্মে প্রত্যাশার চেয়ে কম উপযোগী হতে পারে এবং প্রযুক্তি সংস্থাগুলো এটিকে অতিরিক্ত হাইপ করেছে বলে উদ্বেগ দেখা দিয়েছে। একই সময়ে, নিয়ম তৈরির প্রক্রিয়া নীতিনির্ধারকদেরকে বিদ্যমান সমস্যাগুলো নিয়ে চিন্তা করতে বাধ্য করেছে, যেমন পক্ষপাত, বৈষম্য এবং মেধাস্বত্বের লঙ্ঘন। AI-এর স্কুল ব্রিফগুলোর চূড়ান্ত অধ্যায়টি ব্যাখ্যা করে, নিয়ন্ত্রণের ফোকাস অস্পষ্ট, অনুমানমূলক ঝুঁকি থেকে নির্দিষ্ট এবং তাত্ক্ষণিক ঝুঁকির দিকে স্থানান্তরিত হয়েছে। এটি একটি ভালো দিক।
উদাহরণস্বরূপ, ঋণ বা বন্ধক অনুমোদনের জন্য মানুষের মূল্যায়ন করার জন্য ব্যবহৃত AI-ভিত্তিক সিস্টেমগুলো বর্ণ বৈষম্য প্রদর্শন করতে দেখা গেছে। AI নিয়োগের সিস্টেমগুলো পুরুষদের পক্ষে বেশি পক্ষপাতী বলে মনে হচ্ছে। আইন প্রয়োগকারী সংস্থাগুলো দ্বারা ব্যবহৃত মুখ-স্বীকৃতি সিস্টেমগুলো কালো মানুষদের ভুলভাবে সনাক্ত করার প্রবণতা দেখায়। AI সরঞ্জামগুলো “ডিপফেক” ভিডিও তৈরি করতে ব্যবহার করা যেতে পারে, যার মধ্যে পর্নোগ্রাফিক ভিডিওও রয়েছে, যা লোকজনকে হয়রানি করতে বা রাজনীতিবিদদের মতামত ভুলভাবে উপস্থাপন করতে ব্যবহার করা যেতে পারে। শিল্পী, সংগীতজ্ঞ এবং সংবাদ সংস্থাগুলো বলেছে যে তাদের কাজ অনুমতি ছাড়াই AI মডেলগুলোকে প্রশিক্ষণ দিতে ব্যবহার করা হয়েছে। এবং ব্যক্তিগত তথ্য প্রশিক্ষণের উদ্দেশ্যে ব্যবহার করা কি আইনী কিনা তা নিয়ে অনিশ্চয়তা রয়েছে।
ফলস্বরূপ, নতুন আইনগুলোর প্রবাহ শুরু হয়েছে। উদাহরণস্বরূপ, ইউরোপীয় ইউনিয়নের AI আইন অনুযায়ী, আইন-প্রয়োগকারী সংস্থাগুলো দ্বারা সরাসরি মুখ-স্বীকৃতি সিস্টেমের ব্যবহার নিষিদ্ধ করা হবে, AI-এর মাধ্যমে পূর্বাভাস নির্ধারণ করা, অনুভূতি স্বীকৃতি এবং চেতনাতীত বিজ্ঞাপনও নিষিদ্ধ করা হবে। অনেক দেশ AI-জেনারেটেড ভিডিওগুলো লেবেল করার নিয়ম প্রবর্তন করেছে। দক্ষিণ কোরিয়া নির্বাচনের ৯০ দিনের মধ্যে রাজনীতিবিদদের ডিপফেক ভিডিও নিষিদ্ধ করেছে; সিঙ্গাপুরও হয়তো একই পথে এগোতে পারে।
কিছু ক্ষেত্রে বিদ্যমান নিয়মগুলো পরিষ্কার করতে হবে। অ্যাপল এবং মেটা উভয়েই বলেছে যে তারা ইউরোপীয় ইউনিয়নে কিছু AI পণ্য প্রকাশ করবে না, ব্যক্তিগত তথ্য ব্যবহারের নিয়মের অস্পষ্টতার কারণে। (দ্য ইকোনমিস্টে একটি অনলাইন প্রবন্ধে মেটার প্রধান নির্বাহী মার্ক জুকারবার্গ এবং স্পটিফাইয়ের প্রধান নির্বাহী ড্যানিয়েল এক যুক্তি দিয়েছেন যে এই অনিশ্চয়তার কারণে ইউরোপীয় ভোক্তারা সর্বশেষ প্রযুক্তিতে প্রবেশ করতে পারছেন না।) এবং কিছু বিষয়—যেমন প্রশিক্ষণের উদ্দেশ্যে কপিরাইটযুক্ত উপকরণ ব্যবহারের অনুমতি “ফেয়ার ইউজ” নিয়মের অধীনে বৈধ কিনা তা আদালতে সিদ্ধান্ত নেওয়া যেতে পারে।
AI-এ বিদ্যমান সমস্যাগুলোর সমাধানের জন্য এই প্রচেষ্টাগুলোর মধ্যে কিছু কিছু অন্যগুলোর তুলনায় ভালভাবে কাজ করবে। তবে তারা প্রতিফলিত করে যে আইন প্রণেতারা বিদ্যমান AI সিস্টেমগুলির সাথে সম্পর্কিত বাস্তব জীবনের ঝুঁকির উপর দৃষ্টি নিবদ্ধ করার জন্য বেছে নিচ্ছেন। এর মানে এই নয় যে নিরাপত্তা ঝুঁকিগুলো উপেক্ষা করা উচিত; সময়মতো নির্দিষ্ট নিরাপত্তা নিয়ম প্রয়োজন হতে পারে। তবে ভবিষ্যতের অস্তিত্বগত ঝুঁকির প্রকৃতি এবং পরিমাণ নির্ধারণ করা কঠিন, যা এখন এটি নিয়ন্ত্রণ করা কঠিন করে তুলেছে। এটি দেখতে, ক্যালিফোর্নিয়ার রাজ্য আইনসভায় বিতর্কিত আইন SB 1047-এ নজর দেওয়া যেতে পারে।
পক্ষপাতিত্বকারীরা বলছেন যে বিলটি একটি বিপথগামী AI-এর মাধ্যমে বিপর্যয়কর ঘটনা—”বৃহৎ ক্ষয়ক্ষতি” বা $500 মিলিয়ন ডলারেরও বেশি ক্ষয়ক্ষতির হাত থেকে রক্ষা করবে, রাসায়নিক, জৈবিক,তেজস্ক্রিয় বা পারমাণবিক অস্ত্রের ব্যবহার বা গুরুত্বপূর্ণ অবকাঠামোর উপর সাইবার আক্রমণের মাধ্যমে। এটি বড় AI মডেলগুলির সৃষ্টিকর্তাদের নিরাপত্তা প্রোটোকল মেনে চলা এবং একটি “কিল সুইচ” অন্তর্ভুক্ত করতে বাধ্য করবে। সমালোচকরা বলছেন এর ফ্রেমিং বিজ্ঞানের চেয়ে বেশি ধর্মীয় কল্পনা এবং এর অস্পষ্ট শব্দকোষ কোম্পানিগুলোকে দুর্বল করবে এবং একাডেমিক স্বাধীনতাকে বাধাগ্রস্ত করবে। AI গবেষক অ্যান্ড্রু এনজি সতর্ক করেছেন যে এটি গবেষকদেরকে “অচল” করে দেবে, কারণ তারা আইন ভাঙার ব্যাপারে নিশ্চিত হবে না।
গত মাসে এর বিরোধীদের কাছ থেকে তীব্র লবিংয়ের পর, বিলটির কিছু দিক কিছুটা পরিবর্তন করা হয়েছে। এর কিছু অংশ যেমন AI সংস্থাগুলির হুইসলব্লোয়ারদের জন্য সুরক্ষা অর্থবহ। তবে বেশিরভাগ ক্ষেত্রেই তা একটি কল্পনাপ্রসূত বিশ্বাসের উপর ভিত্তি করে তৈরি করা হয়েছে যে AI বৃহৎ স্কেলে বিপর্যয়কর ক্ষতির ঝুঁকি বহন করে—যদিও পারমাণবিক বা জৈবিক অস্ত্র তৈরি করতে এমন সরঞ্জাম এবং উপকরণের প্রয়োজন যা কঠোরভাবে নিয়ন্ত্রিত। যদি বিলটি ক্যালিফোর্নিয়ার গভর্নর গ্যাভিন নিউজমের টেবিলে পৌঁছায়, তবে তাকে এটি ভেটো করা উচিত। বর্তমান পরিস্থিতিতে, একটি বড় AI মডেল কীভাবে মৃত্যু বা শারীরিক ধ্বংস ঘটাতে পারে তা বোঝা কঠিন। তবে অনেক উপায়ে AI সিস্টেমগুলো ইতিমধ্যেই অশারীরিক ক্ষতি করতে পারে এবং করছে—তাই আইন প্রণেতারা, আপাতত, এই বিষয়গুলোতে মনোনিবেশ করছেন।
Leave a Reply