-
Mindössze 250 rosszindulatú dokumentum képes megfertőzni bármilyen méretű nagy nyelvi modellt
A mesterséges intelligencia és a nagy nyelvi modellek (LLM-ek) folyamatos fejlődése mellett egyre fontosabbá válik a biztonságuk kérdése is. Egy új, az UK AI Security Institute, az Alan Turing Institute és az Anthropic szakembereinek közös kutatása arra világít rá, hogy egy meglepően kis mennyiségű, mindössze 250 rosszindulatú dokumentum is elegendő lehet ahhoz, hogy hátsóajtó sérülékenységet hozzanak létre bármilyen méretű nagy nyelvi modellben – legyen az kisméretű vagy akár 13 milliárd paraméteres. Ez a felfedezés alapjaiban rengeti meg az eddigi elképzeléseket a modellek adatmérgezésének lehetőségeiről és kockázatairól. Adatmérgezés és hátsóajtó támadások: hogyan működnek? A nagy nyelvi modelleket, mint például a Claude vagy a GPT, hatalmas mennyiségű nyilvánosan elérhető szöveges adatból tanítják,…
-
Forradalmi előrelépés az MI-alapú kiberbiztonságban: Claude Sonnet 4.5 az élvonalban
Az utóbbi években az mesterséges intelligencia (MI) alkalmazása a kiberbiztonságban egyre inkább a gyakorlatban is hasznosíthatóvá vált, nem csupán elméleti szinten. A legújabb kutatások és tapasztalatok alapján az MI-modellek, például a Claude Sonnet 4.5, már képesek hatékonyan segíteni a védekező szakembereket a kódok és rendszerek sérülékenységeinek felderítésében, elemzésében és javításában. Ez a fejlődés mérföldkőnek tekinthető a digitális biztonság területén, hiszen a támadók által használt fejlett MI-eszközök elleni hatékony védekezés kulcsa éppen a mesterséges intelligencia aktív alkalmazása lehet. Claude Sonnet 4.5: mérföldkő a sebezhetőségek felismerésében és javításában Az AI-modellek kiberbiztonsági képességeinek folyamatos nyomon követése során a fejlesztők jelentős előrelépést tapasztaltak. A Claude Sonnet 4.5 egy olyan fejlett nyelvi modell, amely több…
-
Az EU Digital Omnibus csomagja egyszerűsítené a GDPR-t, az AI-képzést és a cookie-hozzájárulást
Az Európai Bizottság új digitális szabályozási csomagot, a Digital Omnibus-t terjesztett elő, amely jelentős változásokat hozhat az adatvédelem, a mesterséges intelligencia (AI) és a cookie-kezelési szabályok terén. A javaslat célja, hogy a jelenlegi GDPR és AI-szabályozás egyes elemeit egyszerűsítse, miközben versenyképesebbé teszi az európai digitális piacot. Bár a jogszabályi változások még nem léptek hatályba, fontos, hogy az érintettek figyelemmel kísérjék a fejleményeket, hiszen a tervezet jelentős hatással lehet az EU-forgalmat kezelő vállalatokra, különösen az elemzések, reklámok és AI-fejlesztések területén. Főbb változások a Digital Omnibus javaslatban A Digital Omnibus egyszerre érintené a GDPR, az AI-törvény és a cookie-szabályozás több pontját is. Az AI-vel kapcsolatosan a csomag elhalasztaná a magas kockázatú rendszerekre…
-
Az EU 16 éves korhatárt vezet be az AI chatbotok és közösségi média használatában
Az Európai Unió új, szigorú szabályozást vezet be a digitális platformok gyermekvédelme érdekében. A legfrissebb döntés értelmében az EU egész területén egységesen 16 éves korhoz kötik a közösségi média, videómegosztó oldalak és mesterséges intelligencia asszisztensek használatát. A 13 és 16 év közötti fiatalok csak szülői beleegyezéssel férhetnek hozzá ezekhez a szolgáltatásokhoz, emellett egy EU-s szintű életkor-ellenőrző rendszer és digitális személyazonosság bevezetése is várható. Az új szabályozás célja, hogy megakadályozza a kiskorúak káros tartalmakhoz való hozzáférését, és visszaszorítsa azokat a manipulatív tervezési megoldásokat, amelyek hosszabb online jelenlétre ösztönzik a fiatalokat. Egységes korhatár és szülői beleegyezés az online térben Az Európai Parlament november végén elfogadott javaslata szerint az uniós országokban egységesen 16…
-
Új elkötelezettségek a mesterséges intelligencia modellek megőrzése és kivonása terén
Az AI fejlesztése gyors ütemben halad, és a Claude modellek egyre kifinomultabb képességekkel rendelkeznek, amelyek egyre mélyebben beépülnek a felhasználók mindennapi életébe. A modellek idővel történő kivonása vagy lecserélése azonban komoly kihívásokat rejt magában, amelyek nem csupán technikai, hanem etikai és biztonsági kérdéseket is felvetnek. Az Anthropic legújabb bejelentéseiben ezért új irányelveket és elkötelezettségeket fogalmazott meg, hogy mérsékelje a modellek nyugdíjazásával járó negatív hatásokat, miközben továbbra is támogatja a mesterséges intelligencia fejlődését. A modellek kivonásának kockázatai és kihívásai A Claude modellek kivonása során több problémával is szembesülnek a fejlesztők és a felhasználók egyaránt. Egyrészt biztonsági kockázatokat jelenthet, ha a modellek – különösen, ha nem kapnak megfelelő „kimeneti” lehetőséget – olyan…
-
Adatvédelmi incidens az OpenAI és a Mixpanel kapcsolatában: Mit kell tudni a legutóbbi adatszivárgásról?
Az utóbbi időszakban egy újabb, a technológiai szektort érintő adatbiztonsági incidens került napvilágra, amely ezúttal az OpenAI API-felhasználóit érinti. A harmadik félként működő Mixpanel elemzőcég rendszereiben történt biztonsági rés miatt bizonyos felhasználói adatok kerültek illetéktelen kezekbe. Az OpenAI gyorsan reagált a helyzetre, és hangsúlyozta, hogy saját rendszerei nem sérültek, és érzékeny információk, például chatnaplók vagy API-kulcsok nem kerültek nyilvánosságra. Cikkünkben részletesen bemutatjuk az eset hátterét, az érintett adatokat és a vállalat által tett lépéseket. A Mixpanel adatbiztonsági incidense és az OpenAI reakciója November 9-én a Mixpanel belső rendszereiben jogosulatlan hozzáférést észleltek, amely során egy támadó egy részlegesen az OpenAI API-felhasználókhoz kötődő adatkészletet exportált. Az érintett adatok nem az OpenAI saját…
-
Google és Európa közösen építik a mesterséges intelligencia jövőjét
Debbie Weinstein, a Google EMEA régiójának elnöke első nyilvános beszédét tartotta az Európai Üzleti Csúcstalálkozón Brüsszelben, ahol hangsúlyozta, hogy Európa milyen kulcsszerepet tölthet be a mesterséges intelligencia (AI) gazdasági potenciáljának kiaknázásában. Beszédében kiemelte a vállalkozások gyakorlati igényeit, és ismertette, miként kíván a Google megbízható partnerként hozzájárulni a kontinens fejlődéséhez. Az AI lehetőségei Európában Weinstein szerint egy új generációs európai vállalkozók állnak készen arra, hogy újraértelmezzék a régió gazdasági jövőjét. Ezek a vállalkozók már nem csupán alkalmazzák a technológiát, hanem aktívan alakítják is azt, például olyan startupok révén, mint a spanyol Idoven, amely a korai szívbetegségek felismerését segíti elő. Az AI napjaink legerősebb eszköztára, amely eddig soha nem látott lehetőségeket kínál…
-
Claude Opus 4.5: Új mérföldkő a böngészőalapú AI prompt injection elleni védekezésben
Az AI-modellek egyre szélesebb körű alkalmazásával párhuzamosan nő az igény a biztonságosabb, megbízhatóbb rendszerek iránt. Különösen igaz ez a böngészőalapú AI-ügynökökre, amelyek a weboldalak tartalmát is feldolgozzák, így potenciális támadási felületet jelentenek. A Claude Opus 4.5 modell most új szintre emeli a prompt injection, vagyis a rejtett rosszindulatú utasítások elleni védekezést, jelentős előrelépést hozva a biztonság és a teljesítmény terén. Mi az a prompt injection és miért veszélyes a böngészős AI-k számára? A prompt injection olyan támadási forma, amikor rosszindulatú szereplők a weboldalak vagy dokumentumok tartalmába rejtett, az AI számára feldolgozható utasításokat helyeznek el. Ezek az „ellenséges” parancsok megváltoztathatják az AI viselkedését, akár érzékeny információk kiszivárogtatására vagy nem kívánt műveletek…
-
A Google Ad Manager megosztásának kockázatairól és a DOJ javaslatainak következményeiről szóló tárgyalás zárult le
Az Egyesült Államok Igazságügyi Minisztériumának (DOJ) hirdetési technológiai ügyében lezárult a jogi eljárás azon szakasza, amelyben a Google Ad Manager felosztásának javasolt megoldásait vizsgálták. A tárgyaláson elhangzottak alapján egyértelművé vált, hogy a minisztérium terve nemcsak kivitelezhetetlen, de jelentős bizonytalanságot és zavarokat okozna a hirdetők és kiadók számára. Ezzel szemben a Google által előterjesztett alternatív megoldások a bíróság aggályaira reagálnak anélkül, hogy megnehezítenék a kisvállalkozások fogyasztók elérését és növekedését. A szakértői vélemények és tanúvallomások tükrében A tárgyaláson több, független cégek által előterjesztett szakértői vélemény is elhangzott, melyek alátámasztották, hogy a viselkedés alapú, testreszabott változtatások hatékonyabbak és megvalósíthatóbbak a bíróság által megfogalmazott aggályok kezelésében. James Avery, a konkurens Kevel hirdetéskezelő cég vezérigazgatója…
-
Google Gemini: Új személyre szabás és ideiglenes chat funkciók érkeznek
Google nemrégiben bejelentette, hogy frissítéseket vezet be a Gemini alkalmazásában, amelyek célja a felhasználói élmény személyre szabása, figyelembe véve a múltbeli beszélgetéseket. A legújabb frissítések közt szerepel a válaszok testreszabása, valamint új adatvédelmi beállítások, például a „Temporary Chat” funkció, amely lehetővé teszi a felhasználók számára, hogy átmeneti beszélgetéseket folytassanak anélkül, hogy azok befolyásolnák a jövőbeli interakciókat. Új funkciók a Gemini alkalmazásban A Gemini mostantól képes hivatkozni a korábbi beszélgetésekre, hogy emlékezzen a felhasználó által megadott részletekre és preferenciákra. Ezáltal a válaszok olyan érzést keltenek, mintha egy olyan partnerrel kommunikálnánk, aki már ismeri a kontextust. Az új frissítés összhangban van a Google I/O rendezvényén bemutatott vízióval, amely egy olyan asszisztenst céloz…