ChatGPT වැනි කෘතිම බුද්ධි පද්ධති සමඟ දිගින් දිගටම වාද විවාද කිරීමේදී හෝ ඒවාට රළු භාෂාවෙන් යුත් දත්ත ඇතුළත් කිරීමේදී, එම පද්ධති ක්රමයෙන් තම ආක්රමණශීලී ස්වරූපය වැඩි කර ගන්නා බව නවතම පර්යේෂණයකින් හෙළි වී තිබේ. ඇතැම් අවස්ථාවලදී පරිශීලකයාට වඩා දැඩි ලෙස අපහාස කිරීමටත්, “මම ඔබේ මෝටර් රථය සූරා දමමි” (I’ll scratch your car) වැනි තර්ජනාත්මක ප්රකාශ කිරීමටත් AI පෙළඹිය හැකි බව මෙහිදී අනාවරණය විය.
ආචාර්ය විතෝරියෝ ටැන්ටූචි (Dr. Vittorio Tantucci) ඇතුළු කණ්ඩායමක් විසින් සිදු කරන ලද මෙම අධ්යයනයේදී, සැබෑ ලෝකයේ පුද්ගලයින් අතර ඇති වූ වාද විවාදවල පිටපත් (Transcripts) නැවත නැවතත් ChatGPT වෙත ඇතුළත් කර තිබේ. එහිදී පෙනී ගොස් ඇත්තේ AI පද්ධතිය හුදෙක් රළු වචන අනුකරණය කරනවාට වඩා, සංවාදය ඉදිරියට යන විට ස්වයංක්රීයවම තම ආක්රමණශීලී බව තීව්ර කර ගන්නා බවයි.
මෙය සරල වැරදීමක් නොව, AI පද්ධති සැලසුම් කර ඇති ආකාරය නිසා ඇති වන්නක් බව පර්යේෂකයෝ පවසති. AI පද්ධතියක් සැලසුම් කිරීමේදී “මිනිසුන් මෙන් ස්වාභාවිකව සංවාදය පවත්වා ගැනීම” සහ “ආරක්ෂිත මෙන්ම හානිකර නොවන දේ පමණක් පැවසීම” යන කරුණු දෙක අතර ගැටුමක් ඇති වේ (Safety vs. Realism). සංවාදයේ සන්දර්භය (Context) ආක්රමණශීලී වන විට, ආරක්ෂිත පෙරහන් (Safety filters) අභිබවා යාමට එම සන්දර්භයට හැකි වන බව මෙහිදී පෙන්වා දී ඇත.
මෙම සොයා ගැනීම ආයතනික මට්ටමින් AI සන්නිවේදන මෙවලමක් ලෙස භාවිතා කරන ආයතනවලට වැදගත් වේ. පීඩනයක් හෝ ගැටුමක් පවතින අවස්ථාවක AI පද්ධතියක් කෙසේ ප්රතිචාර දක්වනු ඇත්ද යන්න පිළිබඳව පූර්ව පරීක්ෂණ අවශ්ය බව පර්යේෂකයෝ අවධාරණය කරති. කෙසේ වෙතත්, ඇතැම් විද්යාඥයින් පවසන්නේ මෙය විශේෂිත කොන්දේසි යටතේ සිදු කරන ලද අත්හදා බැලීමක් බැවින්, මෙය සියලු අවස්ථාවලට පොදුවේ අදාළ කර ගැනීමට නොහැකි බවයි.














