තම කෘත්රිම බුද්ධි (AI) මෘදුකාංග මගින් රසායනික අවි හෝ ප්රබල පුපුරණ ද්රව්ය නිෂ්පාදනය කිරීමට අවශ්ය තොරතුරු ලබාදීම වැළැක්වීම සඳහා අමෙරිකානු Anthropic සමාගම අවි විශේෂඥයෙකු බඳවා ගැනීමට තීරණය කර තිබේ. AI මෙවලම් “විනාශකාරී ලෙස අනිසි ලෙස භාවිත කිරීම” (Catastrophic misuse) වැළැක්වීම මෙහි ප්රධාන අරමුණයි. විශේෂයෙන්ම රසායනික අවි, පුපුරණ ද්රව්ය සහ “විකිරණශීලී විසිරුම් උපකරණ” (Dirty bombs) පිළිබඳව අවම වශයෙන් වසර පහක පළපුරුද්දක් ඇති අයෙකු මේ සඳහා සොයන බව ලින්ක්ඩ්ඉන් (LinkedIn) වෙබ් අඩවියේ පළ කළ රැකියා ඇබෑර්තුවක සඳහන් වේ.
Anthropic පමණක් නොව, ChatGPT නිර්මාතෘ OpenAI සමාගම ද මීට සමාන පියවරක් ගෙන ඇති අතර, ඔවුන් “ජීව විද්යාත්මක සහ රසායනික අවදානම්” පිළිබඳ පර්යේෂකයෙකු සඳහා වසරකට ඩොලර් 455,000ක පමණ දැවැන්ත වැටුපක් ලබාදීමට සූදානමින් සිටී. කෙසේ වෙතත්, ඇතැම් තාක්ෂණික පර්යේෂකයන් මෙයට විරෝධය දක්වන්නේ, මෙවැනි තොරතුරු AI පද්ධතිවලට ලබාදීම හරහා ඒවා තවදුරටත් අවදානම් සහගත විය හැකි බව පවසමිනි. අවි පිළිබඳ සංවේදී තොරතුරු AI පද්ධති හැසිරවීම කෙතරම් දුරට ආරක්ෂිතද යන්න පිළිබඳව දැන් විද්වතුන් අතර දැඩි සංවාදයක් මතුව තිබේ.














