রবিবার, ২২ সেপ্টেম্বর ২০২৪, ১১:৩৪ অপরাহ্ন

AI তার সৃষ্টিকর্তার থেকে এগিয়ে যাচ্ছে

  • Update Time : শনিবার, ২৪ আগস্ট, ২০২৪, ৬.৪৩ পিএম

সারাক্ষণ ডেস্ক

 দুঃখিত ডেভ,আমি এটি করতে পারি না। “2001: এ স্পেস ওডিসি” চলচ্চিত্রের হত্যাকারী কম্পিউটার HAL 9000-এর মতো, বিজ্ঞান কল্পকাহিনীতে কৃত্রিম বুদ্ধিমত্তার (AI)উদাহরণগুলো প্রায়শই তাদের মানব সৃষ্টিকর্তাদের পেছনে ফেলে দেয়। ChatGPT-এর সাম্প্রতিক অগ্রগতির মতো AI-এ অগ্রগতি আন্তর্জাতিক এজেন্ডায় “অস্তিত্বগত ঝুঁকি” নিয়ে প্রশ্ন উত্থাপন করেছে।২০২৩ সালের মার্চ মাসে ইলন মাস্কসহ বেশ কিছু প্রযুক্তি নেতৃবৃন্দ AI-এর উন্নয়নে নিরাপত্তা উদ্বেগের জন্য কমপক্ষে ছয় মাসের বিরতির আহ্বান জানিয়েছেন। গত শরতে ব্রিটেনে AI-নিরাপত্তা সম্মেলনে, রাজনীতিবিদ ও বিজ্ঞানীরা এই সম্ভাব্য বিপজ্জনক প্রযুক্তিকে কীভাবে নিয়ন্ত্রণ করা যায় তা নিয়ে আলোচনা করেছেন।

তবে আজকের সময়ে এসে, এই প্রযুক্তি দ্রুতগতিতে এগিয়ে যাচ্ছে এমন ভয়গুলোকে প্রতিস্থাপন করে, AI বর্তমান ফর্মে প্রত্যাশার চেয়ে কম উপযোগী হতে পারে এবং প্রযুক্তি সংস্থাগুলো এটিকে অতিরিক্ত হাইপ করেছে বলে উদ্বেগ দেখা দিয়েছে। একই সময়ে, নিয়ম তৈরির প্রক্রিয়া নীতিনির্ধারকদেরকে বিদ্যমান সমস্যাগুলো নিয়ে চিন্তা করতে বাধ্য করেছে, যেমন পক্ষপাত, বৈষম্য এবং মেধাস্বত্বের লঙ্ঘন। AI-এর স্কুল ব্রিফগুলোর চূড়ান্ত অধ্যায়টি ব্যাখ্যা করে, নিয়ন্ত্রণের ফোকাস অস্পষ্ট, অনুমানমূলক ঝুঁকি থেকে নির্দিষ্ট এবং তাত্ক্ষণিক ঝুঁকির দিকে স্থানান্তরিত হয়েছে। এটি একটি ভালো দিক।

উদাহরণস্বরূপ, ঋণ বা বন্ধক অনুমোদনের জন্য মানুষের মূল্যায়ন করার জন্য ব্যবহৃত AI-ভিত্তিক সিস্টেমগুলো বর্ণ বৈষম্য প্রদর্শন করতে দেখা গেছে। AI নিয়োগের সিস্টেমগুলো পুরুষদের পক্ষে বেশি পক্ষপাতী বলে মনে হচ্ছে। আইন প্রয়োগকারী সংস্থাগুলো দ্বারা ব্যবহৃত মুখ-স্বীকৃতি সিস্টেমগুলো কালো মানুষদের ভুলভাবে সনাক্ত করার প্রবণতা দেখায়। AI সরঞ্জামগুলো “ডিপফেক” ভিডিও তৈরি করতে ব্যবহার করা যেতে পারে, যার মধ্যে পর্নোগ্রাফিক ভিডিওও রয়েছে, যা লোকজনকে হয়রানি করতে বা রাজনীতিবিদদের মতামত ভুলভাবে উপস্থাপন করতে ব্যবহার করা যেতে পারে। শিল্পী, সংগীতজ্ঞ এবং সংবাদ সংস্থাগুলো বলেছে যে তাদের কাজ অনুমতি ছাড়াই AI মডেলগুলোকে প্রশিক্ষণ দিতে ব্যবহার করা হয়েছে। এবং ব্যক্তিগত তথ্য প্রশিক্ষণের উদ্দেশ্যে ব্যবহার করা কি আইনী কিনা তা নিয়ে অনিশ্চয়তা রয়েছে।

ফলস্বরূপ, নতুন আইনগুলোর প্রবাহ শুরু হয়েছে। উদাহরণস্বরূপ, ইউরোপীয় ইউনিয়নের AI আইন অনুযায়ী, আইন-প্রয়োগকারী সংস্থাগুলো দ্বারা সরাসরি মুখ-স্বীকৃতি সিস্টেমের ব্যবহার নিষিদ্ধ করা হবে, AI-এর মাধ্যমে পূর্বাভাস নির্ধারণ করা, অনুভূতি স্বীকৃতি এবং চেতনাতীত বিজ্ঞাপনও নিষিদ্ধ করা হবে। অনেক দেশ AI-জেনারেটেড ভিডিওগুলো লেবেল করার নিয়ম প্রবর্তন করেছে। দক্ষিণ কোরিয়া নির্বাচনের ৯০ দিনের মধ্যে রাজনীতিবিদদের ডিপফেক ভিডিও নিষিদ্ধ করেছে; সিঙ্গাপুরও হয়তো একই পথে এগোতে পারে।

কিছু ক্ষেত্রে বিদ্যমান নিয়মগুলো পরিষ্কার করতে হবে। অ্যাপল এবং মেটা উভয়েই বলেছে যে তারা ইউরোপীয় ইউনিয়নে কিছু AI পণ্য প্রকাশ করবে না, ব্যক্তিগত তথ্য ব্যবহারের নিয়মের অস্পষ্টতার কারণে। (দ্য ইকোনমিস্টে একটি অনলাইন প্রবন্ধে মেটার প্রধান নির্বাহী মার্ক জুকারবার্গ এবং স্পটিফাইয়ের প্রধান নির্বাহী ড্যানিয়েল এক যুক্তি দিয়েছেন যে এই অনিশ্চয়তার কারণে ইউরোপীয় ভোক্তারা সর্বশেষ প্রযুক্তিতে প্রবেশ করতে পারছেন না।) এবং কিছু বিষয়—যেমন প্রশিক্ষণের উদ্দেশ্যে কপিরাইটযুক্ত উপকরণ ব্যবহারের অনুমতি “ফেয়ার ইউজ” নিয়মের অধীনে বৈধ কিনা তা আদালতে সিদ্ধান্ত নেওয়া যেতে পারে।

AI-এ বিদ্যমান সমস্যাগুলোর সমাধানের জন্য এই প্রচেষ্টাগুলোর মধ্যে কিছু কিছু অন্যগুলোর তুলনায় ভালভাবে কাজ করবে। তবে তারা প্রতিফলিত করে যে আইন প্রণেতারা বিদ্যমান AI সিস্টেমগুলির সাথে সম্পর্কিত বাস্তব জীবনের ঝুঁকির উপর দৃষ্টি নিবদ্ধ করার জন্য বেছে নিচ্ছেন। এর মানে এই নয় যে নিরাপত্তা ঝুঁকিগুলো উপেক্ষা করা উচিত; সময়মতো নির্দিষ্ট নিরাপত্তা নিয়ম প্রয়োজন হতে পারে। তবে ভবিষ্যতের অস্তিত্বগত ঝুঁকির প্রকৃতি এবং পরিমাণ নির্ধারণ করা কঠিন, যা এখন এটি নিয়ন্ত্রণ করা কঠিন করে তুলেছে। এটি দেখতে, ক্যালিফোর্নিয়ার রাজ্য আইনসভায় বিতর্কিত আইন SB 1047-এ নজর দেওয়া যেতে পারে।

পক্ষপাতিত্বকারীরা বলছেন যে বিলটি একটি বিপথগামী AI-এর মাধ্যমে বিপর্যয়কর ঘটনা—”বৃহৎ ক্ষয়ক্ষতি” বা $500 মিলিয়ন ডলারেরও বেশি ক্ষয়ক্ষতির হাত থেকে রক্ষা করবে, রাসায়নিক, জৈবিক,তেজস্ক্রিয় বা পারমাণবিক অস্ত্রের ব্যবহার বা গুরুত্বপূর্ণ অবকাঠামোর উপর সাইবার আক্রমণের মাধ্যমে। এটি বড় AI মডেলগুলির সৃষ্টিকর্তাদের নিরাপত্তা প্রোটোকল মেনে চলা এবং একটি “কিল সুইচ” অন্তর্ভুক্ত করতে বাধ্য করবে। সমালোচকরা বলছেন এর ফ্রেমিং বিজ্ঞানের চেয়ে বেশি ধর্মীয় কল্পনা এবং এর অস্পষ্ট শব্দকোষ কোম্পানিগুলোকে দুর্বল করবে এবং একাডেমিক স্বাধীনতাকে বাধাগ্রস্ত করবে। AI গবেষক অ্যান্ড্রু এনজি সতর্ক করেছেন যে এটি গবেষকদেরকে “অচল” করে দেবে, কারণ তারা আইন ভাঙার ব্যাপারে নিশ্চিত হবে না।

গত মাসে এর বিরোধীদের কাছ থেকে তীব্র লবিংয়ের পর, বিলটির কিছু দিক কিছুটা পরিবর্তন করা হয়েছে। এর কিছু অংশ যেমন AI সংস্থাগুলির হুইসলব্লোয়ারদের জন্য সুরক্ষা অর্থবহ। তবে বেশিরভাগ ক্ষেত্রেই তা একটি কল্পনাপ্রসূত বিশ্বাসের উপর ভিত্তি করে তৈরি করা হয়েছে যে AI বৃহৎ স্কেলে বিপর্যয়কর ক্ষতির ঝুঁকি বহন করে—যদিও পারমাণবিক বা জৈবিক অস্ত্র তৈরি করতে এমন সরঞ্জাম এবং উপকরণের প্রয়োজন যা কঠোরভাবে নিয়ন্ত্রিত। যদি বিলটি ক্যালিফোর্নিয়ার গভর্নর গ্যাভিন নিউজমের টেবিলে পৌঁছায়, তবে তাকে এটি ভেটো করা উচিত। বর্তমান পরিস্থিতিতে, একটি বড় AI মডেল কীভাবে মৃত্যু বা শারীরিক ধ্বংস ঘটাতে পারে তা বোঝা কঠিন। তবে অনেক উপায়ে AI সিস্টেমগুলো ইতিমধ্যেই অশারীরিক ক্ষতি করতে পারে এবং করছে—তাই আইন প্রণেতারা, আপাতত, এই বিষয়গুলোতে মনোনিবেশ করছেন।

Please Share This Post in Your Social Media

More News Of This Category

Leave a Reply

Your email address will not be published. Required fields are marked *

kjhdf73kjhykjhuhf
© All rights reserved © 2024