কৃত্রিম বুদ্ধিমত্তা বা এআই এখন শুধু তথ্য বিশ্লেষণ, ছবি তৈরি কিংবা ভাষা বোঝার মধ্যেই সীমাবদ্ধ নেই। বিজ্ঞানীরা বলছেন, খুব দ্রুত এআই জীববিজ্ঞানের জটিল ক্ষেত্রেও মানুষের চেয়ে এগিয়ে যেতে পারে। আর সেখানেই তৈরি হচ্ছে ভয়াবহ এক নতুন আশঙ্কা—জৈব সন্ত্রাস।
বিশেষজ্ঞদের মতে, ভবিষ্যতের উন্নত এআই মডেল এমন ক্ষমতা অর্জন করতে পারে, যার মাধ্যমে ভাইরাস তৈরি, নতুন ধরনের বিষাক্ত রাসায়নিক আবিষ্কার কিংবা প্রাণঘাতী জীবাণুর নকশা তৈরি করা সহজ হয়ে যাবে। সবচেয়ে উদ্বেগজনক বিষয় হলো, এসব প্রযুক্তি ভুল মানুষের হাতে পড়লে পুরো মানবজাতির জন্য হুমকি তৈরি হতে পারে।
এআইয়ের বিস্ময়কর অগ্রগতি
সম্প্রতি একটি উন্নত এআই মডেল জীববিজ্ঞানের জটিল ডেটা বিশ্লেষণে অসাধারণ দক্ষতা দেখিয়েছে। এমন কিছু কাজও এটি করতে পেরেছে, যা পরীক্ষায় অংশ নেওয়া মানব বিশেষজ্ঞদের পক্ষে সম্ভব হয়নি। উদাহরণ হিসেবে বলা হচ্ছে, কাঁচা ডিএনএ তথ্য থেকে নির্দিষ্ট কোষের ধরন শনাক্ত করার মতো কাজও এআই সফলভাবে সম্পন্ন করেছে।
বিজ্ঞানীরা বলছেন, এ ধরনের সক্ষমতা ভবিষ্যতে চিকিৎসা, ওষুধ আবিষ্কার ও ক্যানসার গবেষণায় বিপ্লব আনতে পারে। কিন্তু একই প্রযুক্তি বিপজ্জনক জীবাণু তৈরির পথও খুলে দিতে পারে।
কেন বাড়ছে উদ্বেগ
বিশেষজ্ঞদের আশঙ্কা, ভবিষ্যতের এআই একজন সাধারণ মানুষকেও এমন প্রযুক্তিগত সহায়তা দিতে পারে, যা আগে শুধুমাত্র উচ্চ প্রশিক্ষিত গবেষকদের পক্ষে সম্ভব ছিল। অর্থাৎ, কোনো ব্যক্তি যদি ক্ষতিকর উদ্দেশ্যে এআই ব্যবহার করতে চায়, তবে সে ভয়ংকর জৈব অস্ত্র তৈরির দিকনির্দেশনা পেতে পারে।
এ কারণে অনেক গবেষক জৈব নিরাপত্তাকে সাইবার নিরাপত্তার চেয়েও বড় ঝুঁকি হিসেবে দেখছেন। কারণ একটি ভয়ংকর ভাইরাস বিশ্বজুড়ে কোটি কোটি মানুষের মৃত্যু ঘটাতে পারে। সফটওয়্যারের ভুল দ্রুত ঠিক করা সম্ভব হলেও মানবদেহ ও জীববিজ্ঞানের ক্ষতি সহজে সামাল দেওয়া যায় না।
নিরাপত্তা ব্যবস্থার সীমাবদ্ধতা
এআই কোম্পানিগুলো বর্তমানে বিপজ্জনক তথ্য গোপন রাখা বা নিষিদ্ধ প্রশ্নের উত্তর না দেওয়ার মতো নিরাপত্তা ব্যবস্থা ব্যবহার করছে। কিন্তু গবেষণায় দেখা গেছে, অনেক ব্যবহারকারী বিভিন্ন কৌশলে এসব বাধা ভেঙে সংবেদনশীল তথ্য বের করতে সক্ষম হয়েছেন।

আরেকটি পদ্ধতি হলো এআই প্রশিক্ষণ থেকে ঝুঁকিপূর্ণ তথ্য বাদ দেওয়া। কিন্তু বিজ্ঞানীরা বলছেন, অত্যন্ত উন্নত এআই নিজেই মৌলিক বৈজ্ঞানিক ধারণা থেকে সেই তথ্য অনুমান করতে পারে। ফলে শুধু তথ্য গোপন করলেই ঝুঁকি পুরোপুরি কমবে না।
সরকার ও গবেষকদের করণীয়
বিশেষজ্ঞদের মতে, সরকারকে এখন থেকেই ডিএনএ প্রযুক্তি, জীবাণু গবেষণা ও বায়োটেক সরঞ্জামের ওপর কঠোর নজরদারি বাড়াতে হবে। বিশেষ করে কারা এসব প্রযুক্তি ব্যবহার করছে, তা পর্যবেক্ষণে শক্তিশালী নীতিমালা প্রয়োজন।
তবে সমস্যাটি আরও জটিল। পারমাণবিক অস্ত্র তৈরির মতো এখানে দুর্লভ উপকরণের প্রয়োজন হয় না। তুলনামূলক সহজ প্রযুক্তি দিয়েও ক্ষতিকর জৈব উপাদান তৈরি সম্ভব হতে পারে। ফলে প্রতিটি গবেষণাগার বা জীববিজ্ঞান পরীক্ষাকে পর্যবেক্ষণ করা প্রায় অসম্ভব।
নতুন বৈজ্ঞানিক সমাধানের প্রয়োজন
বিশেষজ্ঞরা বলছেন, দীর্ঘমেয়াদে সমস্যার সমাধান প্রযুক্তিগত নিরাপত্তা উদ্ভাবনের মধ্যেই লুকিয়ে আছে। এমন পদ্ধতি দরকার, যা এআই মডেলের ভেতরে থাকা বিপজ্জনক জৈব জ্ঞান শনাক্ত করে নিষ্ক্রিয় করতে পারবে।

এ জন্য এআইয়ের “ব্ল্যাক বক্স” বা অভ্যন্তরীণ কার্যপ্রণালি আরও গভীরভাবে বোঝা জরুরি। গবেষকরা এমন প্রযুক্তি তৈরির চেষ্টা করছেন, যা এআইকে নির্দিষ্ট বিপজ্জনক বিষয়ে ভুল উত্তর দিতে বাধ্য করবে অথবা ঝুঁকিপূর্ণ সিদ্ধান্ত নেওয়া থেকে বিরত রাখবে।
খোলা এআই মডেল নিয়ে বাড়তি ভয়
বিশেষজ্ঞদের সবচেয়ে বড় উদ্বেগ ওপেন-সোর্স এআই মডেল নিয়ে। কারণ একবার এসব প্রযুক্তি সবার হাতে পৌঁছে গেলে তা আর ফিরিয়ে নেওয়া সম্ভব হয় না। কে কী উদ্দেশ্যে ব্যবহার করছে, সেটিও নজরদারির বাইরে চলে যায়।
তবে গবেষকরা মনে করেন, সঠিক নিরাপত্তা ব্যবস্থার মাধ্যমে চিকিৎসা ও বিজ্ঞান গবেষণায় এআই গুরুত্বপূর্ণ ভূমিকা রাখতে পারে। নতুন ক্যানসার চিকিৎসা উদ্ভাবনের মতো ক্ষেত্রেও ইতোমধ্যে উন্নত এআই ব্যবহৃত হচ্ছে।
কিন্তু প্রশ্ন একটাই—মানুষের জীবন উন্নত করার প্রযুক্তি যদি একই সঙ্গে মানবজাতির অস্তিত্বকেই ঝুঁকির মুখে ফেলে, তবে সেই প্রযুক্তির নিয়ন্ত্রণ কিভাবে নিশ্চিত করা হবে?
মানবজাতির ভবিষ্যৎ এখন অনেকটাই নির্ভর করছে সেই উত্তরের ওপর।
সারাক্ষণ রিপোর্ট 



















