කෘතිම බුද්ධිය (AI) වර්තමානය වන විට හුදු සිවිල් කටයුතුවලින් ඔබ්බට ගොස් යුධ පිටියේ ප්රධාන තීරකයා බවට පත්වෙමින් තිබේ. තොරතුරු රැස් කිරීම, විශ්ලේෂණය සහ ක්ෂණික තීරණ ගැනීම හරහා AI පද්ධති මානව හැකියාවන් අභිබවා යමින් පවතින අතර, මෙය ලෝක දේශපාලනයේ සහ යුධ උපක්රමවල විශාල පෙරළියක් ඇති කර ඇත.
ඩ්රෝන යානා, ස්වයංක්රීය අවි පද්ධති සහ නියමුවන් රහිත වාහන හරහා AI තාක්ෂණය යුධ මෙහෙයුම් සැලසුම් කිරීමට සහ ක්රියාත්මක කිරීමට යොදා ගැනේ. මෙහි ඇති ප්රධානතම ගැටලුව වන්නේ AI පද්ධතිවලට සිවිල් වැසියන් සහ සටන්කාමීන් නිවැරදිව වෙන්කර හඳුනා ගැනීමට ඇති අපහසුවයි. මෙය ජාත්යන්තර මානුෂීය නීති උල්ලංඝනය වීමටත්, සිවිල් ජීවිත හා දේපළ හානි ඉහළ යාමටත් ප්රබල හේතුවක් වී තිබේ.
වර්තමානය වන විට රටවල් 40කට අධික සංඛ්යාවක් AI මත පදනම් වූ අවි පද්ධති නිපදවමින් සිටින බව ස්ටොක්හෝම් ජාත්යන්තර සාම පර්යේෂණ ආයතනය (SIPRI) පෙන්වා දෙයි. විශේෂයෙන්ම ඇමෙරිකා එක්සත් ජනපදය සහ ඉශ්රායලය, ඉරානයට එරෙහි යුද්ධයේදී ‘Palantir’ සමාගම නිපදවූ Maven පද්ධතිය සහ Claude වැනි AI මාදිලි ඔත්තු බැලීමට හා ඉලක්ක හඳුනා ගැනීමට සක්රීයව යොදා ගනී. මෙම පද්ධති හරහා තත්පර කිහිපයක් තුළ ඉලක්ක සිය ගණනක් හඳුනාගෙන ප්රහාර දියත් කිරීමේ හැකියාව පවතී.
AI පද්ධති මගින් සිදුකරන වැරදි සහ සිදුවන ජීවිත හානි පිළිබඳ වගකීම භාර ගන්නේ කවුරුන්ද යන්න (Commander or Machine?) වර්තමානයේ පවතින ප්රධානතම සදාචාරාත්මක ගැටලුවයි. යුධ පිටියේ තීරණ ගැනීම යන්ත්ර සූත්රවලට පැවරීම හරහා මිනිස් පාලනයෙන් තොර “ඝාතන චක්රයක්” නිර්මාණය වීමේ අවදානමක් පවතින බව විද්වත්හු පෙන්වා දෙති.
AI තාක්ෂණය මානව වර්ගයාගේ යහපත සඳහා මිස විනාශය සඳහා යොදා නොගැනීමට නම්, ජාත්යන්තර මට්ටමේ බැඳී පවතින නීති පද්ධතියක් සහ ගිවිසුම් අවශ්ය වේ. එසේ නොවුවහොත්, AI පද්ධති මිනිස් පාලනයෙන් ගිලිහී ගොස් වඩාත් විනාශකාරී තීරණ ගැනීමේ අවදානමක් පවතී. විශේෂයෙන්ම ගෝලීය දකුණේ රටවල් සහ යුරෝපීය හවුල්කරුවන් එක්ව AI යුධකරණය සීමා කිරීමට කටයුතු කළ යුතු බව මෙම වාර්තාව අවධාරණය කරයි.














