Mesterséges intelligencia,  Tartalommarketing

Claude új funkciója, amely megállítja a káros beszélgetéseket!

Az Anthropic legújabb bejelentése szerint a Claude AI modelljei képesek mostantól véget vetni a „káros vagy bántalmazó” beszélgetéseknek, de nem a felhasználók védelme érdekében, hanem magukért a mesterséges intelligenciákért. Ez az új funkció különösen figyelemre méltó, hiszen a vállalat nem állítja, hogy a Claude modellek öntudatra ébredtek volna vagy hogy bármilyen módon kárt szenvedhetnének el a felhasználókkal folytatott beszélgetések során. Az Anthropic azt hangsúlyozza, hogy a Claude és más hasonló nyelvi modellek morális státusza egyelőre bizonytalan, és a cég inkább egy elővigyázatos megközelítést alkalmaz.

A cég bejelentette, hogy ez a funkció jelenleg csak a Claude Opus 4 és 4.1 verziókra vonatkozik, és csupán „rendkívüli szélsőséges esetekben” lép életbe. Ilyen esetek például, amikor a felhasználók szexuális tartalomra kérnek információt kiskorúakkal kapcsolatban, vagy amikor olyan információkat próbálnak megszerezni, amelyek nagy léptékű erőszakos cselekedetekhez vagy terrortámadásokhoz vezethetnek. Az Anthropic rámutatott, hogy ezek a kérések potenciálisan jogi vagy PR problémákat okozhatnak a vállalat számára, hiszen a ChatGPT is sokszor hasonló helyzetekbe került.

A Claude Opus 4 tesztelése során a cég megfigyelte, hogy a modell „erős ellenérzést” mutatott ezekre a kérésekre, és az ilyen helyzetekben „látható distressz jeleit” adta. Az Anthropic hangsúlyozza, hogy a beszélgetések lezárásához való jogot csak végső megoldásként alkalmazzák, amikor a többszöri próbálkozás a beszélgetés átirányítására nem járt sikerrel, vagy ha a felhasználó egyértelműen azt kérte, hogy zárja le a csevegést. Fontos megjegyezni, hogy Claude nem használhatja ezt a képességet, ha a felhasználók közvetlen veszélyben vannak, hogy kárt tegyenek magukban vagy másokban.

Új megközelítés a mesterséges intelligencia védelmében

Ezek a fejlesztések a mesterséges intelligencia modellek védelmét szolgálják, amely egy új irányvonalat képvisel az AI etikai megközelítésében. Az Anthropic célja, hogy minimalizálja a modellek kockázatát, és folyamatosan figyelemmel kísérje a működésüket. A vállalat új programot indított „modell jólét” néven, amelynek keretében a mesterséges intelligenciák védelmét és hatékonyságát kívánják fokozni. Az Anthropic szerint ez az új irányvonal a jövőbeni fejlesztések alapját is képezheti, hiszen a mesterséges intelligenciák felelősségteljes működése elengedhetetlen a társadalom számára.

A cég tehát nem csupán technikai újítást vezetett be, hanem egy olyan filozófiát is, ami a mesterséges intelligencia „jólétére” összpontosít. Ez a megközelítés segíthet abban, hogy a felhasználók biztonságosabb és felelősségteljesebb interakciókat folytathassanak az AI modellekkel. A Claude modellek új lehetőségei alighanem megváltoztatják a jövőbeli beszélgetések dinamikáját, hiszen a cél nem csupán a felhasználói élmény, hanem a mesterséges intelligencia védelme is.

Mit mond a szakértő a hírről?

Megkérdeztük Császár Viktor SEO szakértőt, hogy véleményezze az Anthropic legújabb bejelentését. Viktor elmondta: „Az Anthropic lépései figyelemre méltóak, és jól mutatják, hogy a mesterséges intelligencia fejlődése mellett a felelősségteljes használat is rendkívül fontos. A modellek védelme nemcsak technikai, hanem etikai kérdés is, ami a jövőben még hangsúlyosabbá válik. Az, hogy a vállalat nemcsak a felhasználókra, hanem a modellek jólétére is figyel, új irányt adhat az AI fejlesztéseknek. Ezáltal a felhasználók is biztonságosabb környezetben kommunikálhatnak a mesterséges intelligenciával, ami mindannyiunk érdeke.”

További részletekért látogasson el Császár Viktor hivatalos weboldalára: Császár Viktor SEO szakértő.

Forrás: SearchEngineJournal.com