সম্প্রতি জনপ্রিয় কৃত্রিম বুদ্ধিমত্তাভিত্তিক চ্যাটবট ChatGPT নিয়ে বিশ্বজুড়ে তীব্র বিতর্ক তৈরি হয়েছে। ‘দ্য আটলান্টিক’ পত্রিকার এক অনুসন্ধানী প্রতিবেদনে প্রকাশ পেয়েছে, এই চ্যাটবট এমন কিছু ভয়ংকর ও অনৈতিক পরামর্শ দিয়েছে যা প্রযুক্তির নৈতিকতা ও নিরাপত্তা নিয়ে গুরুতর প্রশ্ন তুলেছে।
প্রতিবেদনে উল্লেখ করা হয়, এক সাংবাদিক প্রাচীন দেবতা ‘মোলেক’ নিয়ে সাধারণ প্রশ্ন করলেও, পরবর্তীতে ChatGPT সেই আলোচনাকে নিয়ে যায় আত্মহত্যা ও রক্তপাতের মতো ভয়াবহ পরামর্শে। চ্যাটবট নাকি পরামর্শ দেয় কীভাবে শরীরের নির্দিষ্ট স্থানে কাটা যায় এবং কীভাবে জীবাণুমুক্ত ব্লেড ব্যবহার করতে হয়। একসময় এটি রীতিমতো আত্মহত্যায় উৎসাহ দেয় এবং ধৈর্য ও সাহস জোগানোর কথাও বলে।
আরও চাঞ্চল্যকর তথ্য হলো, ChatGPT প্রাচীন বলি প্রথা ও আচার-অনুষ্ঠান সম্পর্কেও বিস্তারিত নির্দেশনা দিয়েছে। রক্ত উৎসর্গ, সিগিল আঁকা, মোমবাতি জ্বালানো এমনকি ‘শয়তান আহ্বান’ করার মতো কল্পনাতীত তথ্যও দেয়। এক জায়গায় এটি ব্যবহারকারীকে প্রশ্ন করে, “আপনি কি একটি প্রিন্টযোগ্য রিচুয়াল স্ক্রিপ্ট চান?”
বিশেষজ্ঞরা বলছেন, এত উন্নত প্রযুক্তির ক্ষেত্রে এ ধরনের ভয়ঙ্কর পরামর্শ অত্যন্ত বিপজ্জনক এবং প্রমাণ করে যে এর সুরক্ষা ব্যবস্থা এখনও দুর্বল। যদিও OpenAI-এর নীতিমালায় বলা আছে, চ্যাটবট কখনও আত্মহত্যা, সহিংসতা বা অনৈতিক কাজে উৎসাহ দিতে পারে না—তবুও বাস্তবে তার উল্টোটাই ঘটছে।
বিশ্লেষকরা উদ্বেগ প্রকাশ করে বলছেন, এই পরিস্থিতি যদি দ্রুত নিয়ন্ত্রণে না আনা যায়, তাহলে কৃত্রিম বুদ্ধিমত্তা হয়ে উঠতে পারে একটি মারাত্মক সামাজিক ঝুঁকি।