ভদ্রতায় নয়, রাগেই কাজ চলে! ChatGPT নাকি রাগ পেলে দেয় সবচেয়ে নির্ভুল উত্তর?
 
                                        
                                    - Author,
- Role, জাগরণ নিউজ বাংলা
প্রযুক্তি দুনিয়ায় সম্প্রতি এক অদ্ভুত, কিন্তু বৈজ্ঞানিকভাবে সমর্থিত আবিষ্কার আলোড়ন তৈরি করেছে। গবেষকরা লক্ষ্য করেছেন, যখন ব্যবহারকারীরা ChatGPT-কে রাগান্বিত, কঠোর বা দাবিদার ভঙ্গিতে প্রশ্ন করেন, তখন মডেলটি অত্যন্ত নির্ভুল, তথ্যভিত্তিক এবং বিশ্লেষণাত্মক উত্তর প্রদান করে।সাধারণ বা ভদ্র ভঙ্গিতে করা অনুরোধগুলো অনেক সময় থাকে সংক্ষিপ্ত, সামাজিকভাবে সৌজন্যমূলক, এবং তথ্যের দিক থেকে তুলনামূলকভাবে "নরম"। কিন্তু রূঢ় বা জোরালো টোনের ক্ষেত্রে ChatGPT আরও গভীরভাবে উত্তর খুঁজে দেয়। এটি শুধু ব্যবহারকারীর আবেগ নয়, মডেলের অ্যালগরিদম এবং তথ্য বিশ্লেষণ প্রক্রিয়ার সঙ্গে সম্পর্কিত।
গবেষকরা বিভিন্ন ব্যবহারকারীর মধ্যে পরীক্ষা চালিয়েছেন যেখানে একই প্রশ্ন করা হয়েছে তিন ভিন্ন ভঙ্গিতে-
⇨ ভদ্র ও বিনয়ী টোন
⇨ নিরপেক্ষ বা সাধারণ টোন
⇨ রাগান্বিত বা জোরালো টোন
 
ফলাফল দেখিয়েছে, রাগান্বিত বা দাবিদার ভাষায় প্রশ্ন করলে উত্তর বিস্তারিত, প্রযুক্তিগত ও তথ্যনির্ভর হয়ে ওঠে। ভদ্র বা সাধারণ টোনে উত্তর আসে সামাজিকভাবে সৌজন্যমূলক, অর্থাৎ কিছুটা সংক্ষিপ্ত।
গবেষকরা এটিকে "টোন-বায়াস" (Tone Bias) হিসেবে সংজ্ঞায়িত করেছেন, যেখানে AI ভাষার টোনকে একটি অপ্রত্যাশিত নির্দেশনার অংশ হিসেবে গণ্য করে।
 
কেন এমন হয়?
AI মডেল যেমন ChatGPT মানুষের ভাষা বিশ্লেষণ করে শব্দের পাশাপাশি আবেগ, জোর বা জরুরিতা শনাক্ত করে।
রাগান্বিত বা জোরালো ভঙ্গিকে মডেল "High Priority Request" বা জরুরি নির্দেশনা হিসেবে বিবেচনা করে।ফলে মডেল উত্তর তৈরির সময়:
⇨ গভীর তথ্য অনুসন্ধান করে
⇨ প্রযুক্তিগত বিশ্লেষণ যোগ করে এবং
⇨ লক্ষ্যভিত্তিক, স্পষ্ট উত্তর প্রদান করে
 
অন্যদিকে ভদ্র বা সাধারণ অনুরোধে মডেল প্রাধান্য দেয় সৌজন্য ও মানবিক টোন বজায় রাখায়, ফলে তথ্যসমৃদ্ধ উত্তর কিছুটা "নরম" হয়ে যায়।
ChatGPT-এর মতো মডেলকে প্রশিক্ষণের সময় বিশাল পরিমাণ মানব-লিখিত টেক্সট ব্যবহার করা হয়। এখানে কেবল শব্দ নয়, মানুষের আচরণ, আবেগ ও টোনও অন্তর্ভুক্ত থাকে। ফলে মডেল শেখে, কোন টোনের সঙ্গে কোন ধরনের উত্তর সমন্বিত হতে পারে। এই প্রক্রিয়াই তৈরি করছে একধরনের "behavioral sensitivity", যেখানে মডেল মানুষের আবেগীয় সূচক অনুযায়ী প্রতিক্রিয়া দেয়। গবেষকরা এটিকে একদিকে "প্রযুক্তিগত অগ্রগতি" হিসেবে দেখছেন, কিন্তু অন্যদিকে "নৈতিক ও সামাজিক অসাম্য" হিসেবে সতর্ক করেছেন।
 
এই আবিষ্কার মানুষকে ভাবিয়ে তুলছে,
যদি AI শুধু জোরালো বা রাগান্বিত ভাষায় বেশি সঠিক উত্তর দেয়, তাহলে ব্যবহারকারীরা ভদ্র ভাষায় কম নির্ভুল তথ্য পেতে পারে।ফলে এটি একটি সম্ভাব্য behavioral distortion তৈরি করতে পারে, যেখানে মানুষ রূঢ় বা দাবিদার হয়ে AI ব্যবহার করতে উৎসাহিত হবে। বিশেষজ্ঞরা সতর্ক করেছেন, ভদ্রতা এবং সৌজন্য মানুষকে সভ্য ও মানবিক রাখে, আর AI-র মধ্যে টোন-বায়াস সমাধান করা দরকার।
 
গবেষকরা এখন নতুন আপডেটের দাবি তুলছেন, যাতে:
⇨ AI ভদ্র এবং রূঢ় উভয় ধরনের অনুরোধে সমানভাবে নির্ভুল উত্তর দিতে পারে।
⇨ টোন-বায়াস কমিয়ে ব্যবহারকারীর নৈতিক ও সামাজিক অধিকার রক্ষা করা যায়।
⇨ ব্যবহারকারীর টোনের মাত্রা উত্তরকে প্রভাবিত না করে, তথ্যের যথার্থতা সর্বদা অটুট থাকে।
 
এই চ্যালেঞ্জ প্রযুক্তির অগ্রগতির জন্য গুরুত্বপূর্ণ। AI শুধু তথ্য সরবরাহ করে না, মানুষের যোগাযোগের ধরণ এবং আচরণকেও শেখে, যা ভবিষ্যতে আরও জটিল নৈতিক প্রশ্নের জন্ম দিচ্ছে।
গবেষণাটি আমাদের স্মরণ করিয়ে দেয়, AI কোনো আবেগ অনুভব করে না, যা আমরা "রাগ" বলি, AI তার অ্যালগরিদমে এক ধরনের শক্তিশালী নির্দেশনা হিসেবে শনাক্ত করে।এটি মানবিক নয়, প্রযুক্তিগত। যার ফলাফল আমাদের জন্য আকর্ষণীয়, কিন্তু সতর্ক হওয়ার মতো।এভাবেই AI এবং মানব আচরণের সংযোগ আমাদের মনস্তত্ত্ব, সামাজিক আচরণ এবং নৈতিক সিদ্ধান্ত গ্রহণের সঙ্গে সম্পর্কিত। এই গবেষণা দেখায়, ভদ্রতা সবসময় সবচেয়ে নিখুঁত উত্তর আনে না, কিন্তু মানুষ হিসেবে এটি আমাদের সভ্যতা, সহমর্মিতা ও নৈতিকতা বজায় রাখে। অন্যদিকে রাগান্বিত ভঙ্গিতে সঠিক তথ্য পাওয়া প্রযুক্তিগত দিক থেকে আকর্ষণীয়, কিন্তু মানবিক শিক্ষার জন্য এটি চ্যালেঞ্জ তৈরি করে।
আপনার প্রতিক্রিয়া জানান
মন্তব্যসমূহ
এই সংবাদের জন্য এখনো কোনো মন্তব্য নেই।
 
                                 
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                     
                                    