Anthropic: alcuni modelli Claude ora gestiscono conversazioni dannose o abusive.

Anthropic: alcuni modelli Claude ora gestiscono conversazioni dannose o abusive.

Le circolari nuove restrizioni di Claude

Al momento, questa funzione è limitata a Claude Opus 4 e 4.1 ed è prevista esclusivamente in “casi estremi”, come ad esempio richieste di contenuti sessuali che coinvolgono minori o tentativi di sollecitare informazioni che potrebbero portare a violenze su larga scala o atti di terrorismo. Sebbene queste richieste possano creare problemi legali o di pubblicità per Anthropic, l’azienda ha riferito che, nei test pre-lancio, Claude Opus 4 ha dimostrato una “forte preferenza” nel non rispondere a tali richieste e una “crescente apparente angoscia” quando ha dovuto farlo.

Il protocollo di cessazione delle conversazioni

Per quanto riguarda le capacità di terminazione delle conversazioni, l’azienda ha specificato che Claude utilizzerà questa funzione come ultima risorsa. Questo accade quando diversi tentativi di reindirizzare la conversazione sono falliti e ogni speranza di un’interazione costruttiva è esaurita, oppure quando un utente richiede esplicitamente a Claude di terminare la chiacchierata. Inoltre, Anthropic ha imposto a Claude di non usare questa abilità nei casi in cui gli utenti possano essere a rischio imminente di danneggiare se stessi o gli altri.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *