Hii ni tovuti ya maandishi pekee ambayo inatumia data kidogo. Tazama toleo kuu la tovuti likijumuisha picha na video zote.
Pata maelezo zaidi kuhusu toleo hili la linalotumia kiasi kidogo cha data
Hofu ya silaha hatari kutengenezwa kwa kutumia AI na kampuni inayoajiri wataalamu wa silaha
Kampuni ya ujasusi ya akili mnemba, Anthropic yenye makao yake Marekani inatafuta kuajiri mtaalamu wa silaha za kemikali na vilipuzi vyenye nguvu nyingi, katika jaribio la kuzuia "matumizi mabaya" ya programu zake.
Kwa maneno mengine, inaogopa kwamba zana zake za ujasusi bandia zinaweza kumwambia mtu jinsi ya kutengeneza silaha za kemikali au zenye mionzi, na inataka mtaalamu wa kuhakikisha kwamba uzio wake wa usalama una nguvu ya kutosha.
Katika chapisho la LinkedIn linalotafuta wafanyakazi, kampuni hiyo ilisema waombaji lazima wawe na uzoefu wa angalau miaka mitano katika "silaha za kemikali na au ulinzi wa vilipuzi," pamoja na uzoefu wa "vifaa vya kutawanya mionzi," pia vinajulikana kama mabomu machafu.
Kampuni hiyo iliiambia BBC kwamba jukumu hilo ni sawa na kazi ambazo tayari imeunda katika sekta nyingine nyeti. Anthropic sio kampuni pekee ya akili bandia inayofanya mkakati huu.
Kazi kama hiyo pia inatangazwa na OpenAI, mtengezaji programu ya akili mnemba ya ChatGPT. Kwenye ukurasa wake wa kazi, inaorodhesha nafasi ya mtafiti kuhusu "hatari za kibiolojia na kemikali," akiwa na mshahara wa hadi $455,000, ambayo ni karibu mara mbili ya kile Anthropic inatoa.
Lakini baadhi ya wataalamu wana wasiwasi kuhusu hatari za mbinu hii, wakionya kwamba hii inaweza kutoa taarifa kwa zana za AI kuhusu silaha hata kama wataagizwa kutozitumia.
"Je, ni salama kutumia mifumo ya AI kudhibiti taarifa nyeti kuhusu kemikali na vilipuzi, ikiwa ni pamoja na mabomu ya makundi na silaha nyingine zenye mionzi?" alisema Dkt. Stephanie Hare, mtafiti wa teknolojia na mtangazaji wa kipindi cha TV cha BBC "AI Decoded".
"Hakuna makubaliano ya kimataifa au sheria nyingine inayodhibiti aina hii ya kazi na matumizi ya AI katika silaha hizi. Kila kitu kinatokea kwa siri."
Makampuni ya AI yamekuwa yakionya mara kwa mara kuhusu hatari kubwa zinazoweza kutokea kutokana na teknolojia yao, lakini hakukuwa na jaribio la kupunguza kasi ya maendeleo yake.
Suala hili limesababisha kuwepo kwa tahadhari kutoka kwa serikali ya Marekani, ambayo inatoa maonyo kwa makampuni ya AI huku kukiwa na vita vyake na Iran na shughuli za kijeshi nchini Venezuela.
Wasiwasi wa wataalamu
Hata hivyo, baadhi ya wataalamu wana wasiwasi na hatari za mbinu hii, wakionya kwamba inaweza kutoa taarifa kwa zana za AI kuhusu silaha hata kama wataagizwa wasitumie.
"Je, ni salama kutumia mifumo ya AI kushughulikia taarifa nyeti kuhusu kemikali na vilipuzi, ikiwa ni pamoja na mabomu ya makundi na silaha nyingine zenye mionzi?" alisema Dkt. Stephanie Hare, mtafiti wa teknolojia na mchangiaji wa programu ya AI Decoded ya BBC.
"Hakuna makubaliano ya kimataifa au sheria nyingine inayodhibiti aina hii ya kazi na matumizi ya AI katika aina hii ya silaha. Yote haya yanatokea nyuma ya milango iliyofungwa."
Kampuni za AI zimeonya mara kwa mara kuhusu hatari zinazoweza kutokea kutokana na teknolojia yao, lakini hakujakuwa na jaribio la kusimamisha maendeleo yake.
Anthropic inachukua hatua za kisheria dhidi ya Wizara ya Ulinzi ya Marekani, ambayo iliitaja kampuni hiyo kama "tishio" baada ya kampuni hiyo kusisitiza kwamba mifumo yake haitatumika kwa silaha zinazojiendesha au ufuatiliaji wa Wamarekani.
Mwanzilishi wa Anthropic Dario Amodei aliandika mnamo Februari kwamba hakufikiri teknolojia hiyo bado ilikuwa nzuri vya kutosha na ilihitaji kutumika kwa madhumuni haya. Ikulu ya White House imesema jeshi la Marekani halitadhibitiwa na makampuni ya teknolojia.
Ishara hii hatari inaiweka kampuni ya Marekani katika mashua moja na kampuni ya mawasiliano ya simu ya China Huawei, ambayo hapo awali ilikuwa imeorodheshwa kwenye orodha mbaya kutokana na wasiwasi wa usalama wa taifa.
OpenAI ilisema inakubaliana na msimamo wa Anthropic, lakini bado ilikuwa ikijadili mkataba tofauti na serikali ya Marekani, ambao ilisema bado haujaanza.
Msaidizi wa AI wa Anthropic, anayejulikana kama Claude, bado haijaondolewa sokoni na kwa sasa imeunganishwa katika mifumo inayotolewa na Palantir, ambayo Marekani inatumia katika vita vya Marekani na Israel na Iran.