• Mesterséges intelligencia,  Technikai SEO

    Mindössze 250 rosszindulatú dokumentum képes megfertőzni bármilyen méretű nagy nyelvi modellt

    A mesterséges intelligencia és a nagy nyelvi modellek (LLM-ek) folyamatos fejlődése mellett egyre fontosabbá válik a biztonságuk kérdése is. Egy új, az UK AI Security Institute, az Alan Turing Institute és az Anthropic szakembereinek közös kutatása arra világít rá, hogy egy meglepően kis mennyiségű, mindössze 250 rosszindulatú dokumentum is elegendő lehet ahhoz, hogy hátsóajtó sérülékenységet hozzanak létre bármilyen méretű nagy nyelvi modellben – legyen az kisméretű vagy akár 13 milliárd paraméteres. Ez a felfedezés alapjaiban rengeti meg az eddigi elképzeléseket a modellek adatmérgezésének lehetőségeiről és kockázatairól. Adatmérgezés és hátsóajtó támadások: hogyan működnek? A nagy nyelvi modelleket, mint például a Claude vagy a GPT, hatalmas mennyiségű nyilvánosan elérhető szöveges adatból tanítják,…

  • Mesterséges intelligencia,  Technikai SEO

    Forradalmi előrelépés az MI-alapú kiberbiztonságban: Claude Sonnet 4.5 az élvonalban

    Az utóbbi években az mesterséges intelligencia (MI) alkalmazása a kiberbiztonságban egyre inkább a gyakorlatban is hasznosíthatóvá vált, nem csupán elméleti szinten. A legújabb kutatások és tapasztalatok alapján az MI-modellek, például a Claude Sonnet 4.5, már képesek hatékonyan segíteni a védekező szakembereket a kódok és rendszerek sérülékenységeinek felderítésében, elemzésében és javításában. Ez a fejlődés mérföldkőnek tekinthető a digitális biztonság területén, hiszen a támadók által használt fejlett MI-eszközök elleni hatékony védekezés kulcsa éppen a mesterséges intelligencia aktív alkalmazása lehet. Claude Sonnet 4.5: mérföldkő a sebezhetőségek felismerésében és javításában Az AI-modellek kiberbiztonsági képességeinek folyamatos nyomon követése során a fejlesztők jelentős előrelépést tapasztaltak. A Claude Sonnet 4.5 egy olyan fejlett nyelvi modell, amely több…

  • Mesterséges intelligencia,  Technikai SEO

    Claude Sonnet 4.5: Az AI új mérföldköve a kibervédelemben

    Az utóbbi években az mesterséges intelligencia (AI) egyre fontosabb szerepet játszik a kiberbiztonság területén. Míg korábban az AI megoldásokat inkább elméleti szinten vizsgálták, mára a gyakorlatban is egyre hasznosabb eszközökké váltak a védelemben. Az Anthropic kutatócsapata például jelentős fejlesztéseket hajtott végre Claude Sonnet 4.5 nevű AI modelljén, amely már képes komplex sebezhetőségek felismerésére, elemzésére és javítására is, így új távlatokat nyit a digitális infrastruktúra biztonságában. Az AI és a kibertámadások korszakváltása Az elmúlt időszak tapasztalatai azt mutatják, hogy az AI nemcsak a támadók eszköztárát gazdagítja, hanem a védekező oldalon is hatalmas potenciált rejt. Az Anthropic csapata több versenyen is indította Claude modellt, amely néhányszor még az emberi szakértőket is felülmúlta…

  • Mesterséges intelligencia,  Technikai SEO

    Petri: Az új nyílt forráskódú eszköz az AI biztonsági kutatás felgyorsításához

    Az AI rendszerek egyre összetettebbé és elterjedtebbé válnak, ezért egyre nagyobb kihívást jelent azok viselkedésének átfogó vizsgálata és biztonsági szempontú értékelése. A Petri (Parallel Exploration Tool for Risky Interactions) egy új, nyílt forráskódú auditáló eszköz, amelyet kifejezetten az AI modellek viselkedésének gyors és hatékony elemzésére fejlesztettek ki. A Petri jelentősen megkönnyíti a kutatók munkáját azáltal, hogy automatizált módon teszteli és értékeli a mesterséges intelligencia rendszerek különböző helyzetekben tanúsított reakcióit. Hogyan működik a Petri? A Petri egy automatikus auditáló ügynököt használ, amely párhuzamosan többféle, többlépéses beszélgetést folytat a vizsgált AI modellel. Ezekben a párbeszédekben a rendszer szimulált felhasználók és eszközök segítségével teszteli a modell viselkedését különböző, előre megadott forgatókönyvek alapján. A…

  • Mesterséges intelligencia,  Technikai SEO

    Adatvédelmi incidens az OpenAI és a Mixpanel kapcsolatában: Mit kell tudni a legutóbbi adatszivárgásról?

    Az utóbbi időszakban egy újabb, a technológiai szektort érintő adatbiztonsági incidens került napvilágra, amely ezúttal az OpenAI API-felhasználóit érinti. A harmadik félként működő Mixpanel elemzőcég rendszereiben történt biztonsági rés miatt bizonyos felhasználói adatok kerültek illetéktelen kezekbe. Az OpenAI gyorsan reagált a helyzetre, és hangsúlyozta, hogy saját rendszerei nem sérültek, és érzékeny információk, például chatnaplók vagy API-kulcsok nem kerültek nyilvánosságra. Cikkünkben részletesen bemutatjuk az eset hátterét, az érintett adatokat és a vállalat által tett lépéseket. A Mixpanel adatbiztonsági incidense és az OpenAI reakciója November 9-én a Mixpanel belső rendszereiben jogosulatlan hozzáférést észleltek, amely során egy támadó egy részlegesen az OpenAI API-felhasználókhoz kötődő adatkészletet exportált. Az érintett adatok nem az OpenAI saját…

  • Mesterséges intelligencia,  Technikai SEO

    Claude Opus 4.5: Új mérföldkő a böngészőalapú AI prompt injection elleni védekezésben

    Az AI-modellek egyre szélesebb körű alkalmazásával párhuzamosan nő az igény a biztonságosabb, megbízhatóbb rendszerek iránt. Különösen igaz ez a böngészőalapú AI-ügynökökre, amelyek a weboldalak tartalmát is feldolgozzák, így potenciális támadási felületet jelentenek. A Claude Opus 4.5 modell most új szintre emeli a prompt injection, vagyis a rejtett rosszindulatú utasítások elleni védekezést, jelentős előrelépést hozva a biztonság és a teljesítmény terén. Mi az a prompt injection és miért veszélyes a böngészős AI-k számára? A prompt injection olyan támadási forma, amikor rosszindulatú szereplők a weboldalak vagy dokumentumok tartalmába rejtett, az AI számára feldolgozható utasításokat helyeznek el. Ezek az „ellenséges” parancsok megváltoztathatják az AI viselkedését, akár érzékeny információk kiszivárogtatására vagy nem kívánt műveletek…

  • Google,  Tartalommarketing

    Be Internet Legends: Több mint 10 millió brit gyerek tanulja az online biztonságot

    Az internet használata mindennapjaink részévé vált, különösen a fiatalabb generációk számára, ezért kiemelten fontos az online biztonság és az internetes tudatosság fejlesztése már korán. A Be Internet Legends program az Egyesült Királyságban immár több mint öt éve szolgálja ezt a célt, és mára több mint 10 millió általános iskolás gyermek számára nyújt értékes tudást az internet biztonságos használatáról. A programot a Parent Zone és a Google közösen fejlesztette ki, célja pedig az, hogy a 7 és 11 év közötti gyerekek játékos, interaktív módon tanulják meg, hogyan lehetnek tudatosak az online térben. Az oktatás része többek között az iskolai összejövetelek, ingyenes tananyagok, valamint az internetes biztonságot erősítő játékok, például az Interland.…