කෘතිම බුද්ධි (AI) තාක්ෂණය මහජනතාව වෙත නිකුත් කිරීමට පෙර ඒවායේ ආරක්ෂිතභාවය තහවුරු කර ගැනීම සඳහා ඇමෙරිකානු රජය විසින් ක්රියාත්මක කරන විශේෂ පරීක්ෂණ වැඩපිළිවෙළකට ලොව ප්රමුඛ පෙළේ තාක්ෂණික සමාගම් එකඟතාව පළ කර තිබේ.
ගූගල් (Google), මයික්රොසොෆ්ට් (Microsoft) සහ xAI යන සමාගම් තම නව AI මාදිලි ප්රසිද්ධියට පත් කිරීමට ප්රථම, ඇමෙරිකානු වාණිජ දෙපාර්තමේන්තුව යටතේ පවතින ‘AI ප්රමිති සහ නවෝත්පාදන මධ්යස්ථානය’ (CAISI) හරහා පරීක්ෂාවට ලක් කිරීමට එකඟ වී ඇත. මෙහිදී ප්රධාන වශයෙන්ම සයිබර් ආරක්ෂණය, ජෛව ආරක්ෂණය (Biosecurity) සහ රසායනික ආයුධ සම්බන්ධයෙන් ඇති විය හැකි අවදානම් පිළිබඳව මෘදුකාංග නිකුත් කිරීමට පෙර දැඩි විමර්ශනයකට ලක් කෙරේ.
වාණිජ AI පද්ධතිවල පවතින ප්රායෝගික අවදානම් හඳුනා ගැනීම, සහයෝගී පර්යේෂණ සහ හොඳම භාවිතයන් සංවර්ධනය කිරීම මෙම වැඩපිළිවෙළේ මූලික අරමුණයි. තාක්ෂණික දියුණුවත් සමඟ ඇති විය හැකි ගෝලීය තර්ජන අවම කර ගැනීමට මෙම පියවර මහත් පිටුවහලක් වනු ඇතැයි ක්ෂේත්රයේ විශේෂඥයෝ පෙන්වා දෙති.














