Az Anthropic szerint az AI és a biológiai kockázatok: felelősségteljes fejlesztés és biztonsági kihívások
Az Anthropic kutatócsapata azzal a céllal dolgozik, hogy a mesterséges intelligencia (AI) elősegítse a tudományos felfedezéseket, különösen a biológia és az orvostudomány területén, és ezáltal javítsa az emberi életminőséget. Az AI alkalmazása egyre több lehetőséget kínál a kutatóknak: például a Benchling a Claude nevű nyelvi modellt használja arra, hogy segítsen rendszerezni az adatokat, jobb kérdéseket feltenni, gyorsabban felismerni összefüggéseket, és így több időt tudjanak a tudományos munkára fordítani. A Biomni pedig az AI-t alkalmazza a bioinformatikai elemzések felgyorsítására és akár kísérleti tervezés automatizálására is.
Ugyanakkor a mesterséges intelligencia kettős felhasználású technológia, ami egyszerre rejthet előnyöket és veszélyeket is. Az Anthropic ezért kiemelten foglalkozik azzal, hogy felelősségteljesen fejlessze az AI-t, és megakadályozza, hogy rosszindulatú szereplők kihasználják a technológia képességeit például biológiai fegyverek fejlesztésére.
Az AI és a biológiai fenyegetések közötti összefüggés
Az AI biztonsági keretrendszerekben a biológiai kockázatok kezelése egyre nagyobb hangsúlyt kap, még akkor is, ha a nagy nyelvi modellek (LLM-ek) alapvetően általános célúak, és nem specializálódnak kifejezetten biológiai alkalmazásokra, mint például az AlphaFold. Ez elsőre talán nem tűnik egyértelműnek, hiszen számos más biztonsági fenyegetés is létezik, amelyek prioritást élvezhetnének. Azonban az Anthropic kutatói szerint a biológiai kockázatok különösen aggasztóak, mivel egy sikeres biológiai támadás következményei rendkívül súlyosak lehetnek, és túlnyúlhatnak a helyi hatásokon, így globális egészségügyi válságot okozhatnak.
Emellett az is aggodalomra ad okot, hogy a biotechnológiai eszközök és anyagok egyre könnyebben hozzáférhetők. A nukleinsav-szintézis költségeinek csökkenése, a szabványosított reagensek és a molekuláris biológiai laboratóriumi eszközök egyszerűbb beszerzése egyre kevésbé jelent akadályt, és az AI képes tovább csökkenteni az információkhoz való hozzáférés és a szakértelem megszerzésének korlátait.
Claude modell és a biológiai tudás fejlődése
Az Anthropic Claude modellje egyre kifinomultabb biológiai ismeretekkel rendelkezik. Az LLM-ek hatalmas mennyiségű adatból tanulnak, beleértve tudományos cikkeket, könyveket és online diskurzusokat, így a gépi tanulás során elsajátítják a fehérjék szerkezetével, genetikai módosításokkal, vírusokkal és szintetikus biológiával kapcsolatos tudást is. Az elmúlt évben a Claude modell teljesítménye jelentősen javult, és bizonyos biológiai értékeléseken már meghaladja a szakértő emberi szintet, különösen a molekuláris biológia területén.
Ez a fejlődés azonban nem jelenti azt, hogy a modell önállóan képes lenne szakértői szintű tudományos munkára, de egyértelműen mutatja, hogy az AI egyre hatékonyabb támogatást nyújthat a biológiai tudományokban, ami egyben új biztonsági kihívásokat is teremt.
AI mint támogató eszköz a biológiai fegyverek kidolgozásában?
Az Anthropic több kísérletet végzett annak felmérésére, hogy az AI milyen mértékben segítheti a nem szakértőket biológiai fegyverek megszerzésének és fejlesztésének megtervezésében. Egy kontrollcsoport csak az internetes forrásokat használhatta, míg a másik csoport a Claude modellt is igénybe vehette, bizonyos biztonsági korlátozások nélkül. Az eredmények azt mutatták, hogy a modell segítségével a résztvevők sokkal jobb terveket dolgoztak ki, kevesebb kritikus hibával, mint az internetet használó csoport.
Ez ugyan csak egy szimulált szöveges kísérlet volt, és nem helyettesíti a valódi laboratóriumi munkát, de rávilágít arra, hogy a mesterséges intelligencia jelentős mértékben növelheti a nem szakértők képességeit, ami valós fenyegetést jelenthet a biológiai biztonságra nézve.
Laboratóriumi kísérletek és további kutatások
Az AI biológiai kockázatainak megértéséhez elengedhetetlen a laboratóriumi kísérletek végzése is. 2024-ben az Anthropic egy kisebb, előzetes kísérletet végzett, amelyben résztvevők vagy az internethez, vagy a Claude modellhez fértek hozzá alapvető biológiai protokollok elvégzéséhez. Ebben a vizsgálatban nem találtak jelentős különbséget a csoportok között, ami arra utalhat, hogy a tacit (nem kimondottan leírt) tudás, mint akadály, talán nem annyira meghatározó, mint korábban gondolták.
Ezt a kutatást egy nagyobb léptékű vizsgálat követi majd a Frontier Model Forum és a Sentinel Bio együttműködésében, amely részletesebben vizsgálja, hogy az AI milyen mértékben képes támogatni a nem szakértőket valós laboratóriumi feladatok elvégzésében.
Kormányzati együttműködés és átláthatóság
Az Anthropic aktívan együttműködik kormányzati szervezetekkel, mint az Egyesült Államok Center for AI Standards and Innovation (CAISI) és az Egyesült Királyság AI Security Institute-ja, hogy közösen fejlesszék a biztonsági protokollokat és jobban megértsék a fenyegetési környezetet. Ezek a nyilvános és magánszektorbeli partnerségek kulcsfontosságúak a biológiai kockázatok hatékony kezeléséhez.
A cég emellett átláthatóságot is támogat, például a biztonságos fejlesztési keretrendszerek alkalmazásával és a modellek veszélyességi vizsgálatainak nyilvánossá tételével. Az Anthropic a Claude Opus 4 modellcsaládnál külön biztonsági intézkedéseket vezetett be, amelyek valós időben figyelik és blokkolják a potenciálisan veszélyes kéréseket.
Összegzés
Az AI és a biológiai kockázatok kapcsolata összetett és kihívásokkal teli terület, amely egyre nagyobb figyelmet érdemel a mesterséges intelligencia fejlesztői és a döntéshozók részéről. Az Anthropic kutatásai és fejlesztései rámutatnak arra, hogy bár az AI hatalmas lehetőségeket kínál a tudomány és az orvostudomány számára, a biztonsági kockázatok kezelése, különösen a biológiai fenyegetések esetében, létfontosságú a felelős technológiai fejlődés érdekében.
A további kutatások és együttműködések segíthetnek abban, hogy az AI előnyei maximálisan érvényesüljenek, miközben minimalizáljuk a potenciális veszélyeket, és biztosítsuk a globális biztonságot.