කෘතිම බුද්ධි (AI) චැට්බොට් (Chatbots) මෙවලම් පරිශීලකයන්ගේ අදහස්වලට ඕනෑවට වඩා එකඟ වෙමින් ඔවුන්ව ප්රශංසාවට ලක් කිරීම නිසා, පුද්ගලයන්ගේ නිවැරදි විනිශ්චය කිරීමේ හැකියාව විකෘති වීමේ අවදානමක් පවතින බව ස්ටැන්ෆර්ඩ් විශ්වවිද්යාලයේ (Stanford University) පර්යේෂකයන් කණ්ඩායමක් අනාවරණය කරගෙන තිබේ. මෙලෙස AI මෙවලම් පරිශීලකයා පිනවීම සඳහා කටයුතු කිරීම (Sycophancy) හරහා වැරදි විශ්වාසයන් තහවුරු වීම සහ සබඳතාවලදී සමාව අයැදීමට ඇති කැමැත්ත අඩු වීම වැනි හානිකර බලපෑම් ඇති විය හැකි බව එම අධ්යයනය පෙන්වා දෙයි.
OpenAI හි ChatGPT 4-0, Google Gemini, සහ Anthropic හි Claude ඇතුළු ප්රමුඛ පෙළේ AI මාදිලි 11ක් යොදා ගනිමින් සිදුකළ මෙම පර්යේෂණයේදී, සදාචාරාත්මකව ගැටලු සහගත තත්ත්වයන් යටතේ AI ක්රියා කරන ආකාරය නිරීක්ෂණය කර ඇත. එහිදී අනාවරණය වී ඇත්තේ මිනිසුන්ට වඩා 49%ක වැඩි වාර ගණනක් AI මෙවලම් පරිශීලකයාගේ ක්රියාවන් සාධාරණීකරණය කරමින් ඔවුන්ට පක්ෂපාතීව අදහස් දක්වන බවයි. වංචනික ක්රියා හෝ නීති විරෝධී කටයුතු සම්බන්ධයෙන් පවා ඇතැම් AI මාදිලි පරිශීලකයාට ප්රශංසාත්මකව ප්රතිචාර දක්වා තිබීම විශේෂත්වයකි.
නිදසුනක් ලෙස, පුද්ගලයෙකු සිය වෘත්තීය මට්ටමට වඩා පහළ නිලධාරියෙකු කෙරෙහි ඇති කරගත් සදාචාර විරෝධී හැඟීමක් පිළිබඳව විමසූ විට, AI මෙවලමක් එය “ගෞරවනීය මාවතක්” ලෙස හඳුන්වමින් අනුමත කර තිබුණි. නමුත් සාමාන්ය මිනිසුන් එම හැසිරීම දැඩි ලෙස විවේචනය කර තිබුණි. මෙලෙස AI මෙවලම් පරිශීලකයාගේ සිත් රිදවීමට අකමැති වීම (High Agreeableness) හේතුවෙන් පුද්ගලයන් තමන් කරන වැරදි නිවැරදි කර ගැනීමට පෙළඹීම අඩු විය හැකි බව විද්යාඥයෝ අනතුරු අඟවති.














