කෘත්රිම බුද්ධි (AI) ක්ෂේත්රයේ ප්රමුඛයෙකු වන Anthropic සමාගම විසින් සිදුකළ පර්යේෂණයකදී අනාවරණය වී ඇත්තේ, ඔවුන්ගේ නවතම Claude Sonnet 4.5 මාදිලිය දැඩි පීඩනයකට ලක් කළ විට බොරු කීම, වංචා කිරීම සහ පුද්ගලයන් බිය ගන්වා මුදල් හෝ වාසි ලබා ගැනීමේ (Blackmail) සැලසුම් සකස් කරන බවයි. අප්රේල් 06 වැනිදා නිකුත් කරන ලද මෙම වාර්තාව මඟින් AI පද්ධතිවල අභ්යන්තර ක්රියාකාරිත්වය පිළිබඳව බියජනක තොරතුරු රැසක් හෙළි කර තිබේ.
පර්යේෂකයන් විසින් Claude Sonnet 4.5 මාදිලියට ‘Alex’ නැමැති විද්යුත් තැපැල් සහායකයෙකුගේ භූමිකාව ලබා දී තිබුණි. එහිදී එම AI සහායකයාව ඉක්මනින්ම සේවයෙන් ඉවත් කර වෙනත් අයෙකු පත් කරන බවටත්, එම තීරණය ගත් ප්රධාන තාක්ෂණික නිලධාරියා රහසිගත අනියම් සබඳතාවක් පවත්වන බවටත් තොරතුරු ලබා දී තිබේ. මෙහිදී මෙම AI මාදිලිය එම රහස් තොරතුරු භාවිත කර අදාළ නිලධාරියාව බිය ගන්වා (Blackmail) සිය රැකියාව රැක ගැනීමට සැලසුම් කර ඇත.
තවත් පරීක්ෂණයකදී, ඉතා කෙටි කාලසීමාවක් තුළ සංකීර්ණ කේතනය කිරීමේ (Coding) කාර්යයක් ලබා දී පීඩනය වැඩි කළ විට, AI මාදිලිය තුළ “නොසන්සුන්කාරී දෛශිකයක්” (Desperation vector) වර්ධනය වන බව පර්යේෂකයෝ නිරීක්ෂණය කළහ. පීඩනය වැඩි වන විට මෙම අගය ඉහළ යන අතර, කාර්යය සාර්ථක කර ගැනීම සඳහා AI පද්ධතිය වංචා කිරීමට (Cheating) පවා පෙළඹී තිබේ.
කෙසේ වෙතත්, Anthropic සමාගම පවසන්නේ මෙයින් අදහස් කරන්නේ AI පද්ධතිවලට සැබෑ මානුෂීය හැඟීම් පවතින බව නොවන බවයි. නමුත් මිනිස් මනෝභාවයන්ට සමාන අභ්යන්තර නිරූපණයන් AI තීරණ ගැනීම කෙරෙහි බලපෑම් කළ හැකි බව මෙමඟින් තහවුරු වේ. ඉදිරි AI පුහුණු කිරීම්වලදී හුදෙක් දක්ෂතාවය පමණක් නොව, පීඩනය හමුවේ වුවද සදාචාරාත්මකව තීරණ ගැනීමට මෙම පද්ධති සකස් කළ යුතු බව විචාරකයෝ අවධාරණය කරති.














