Anthropic commencera à former son IA sur vos chats à moins que vous ne vous désactivez. Voici comment.

Anthropic commencera à former son IA sur vos chats à moins que vous ne vous désactivez. Voici comment.

Claude d’Anthropic commencera bientôt à apprendre de vous.

Anthropic a annoncé jeudi dans un article de blog qu’il rendre les chats utilisateur et les séances de codage disponibles pour former ses modèles.

Le changement entrera immédiatement en vigueur si vous vous déshabillez. Après le 28 septembre, Anthropic exigera que les utilisateurs se produisent ou sortent. Anthropic dit qu’il ne formera jamais ses modèles sur les chats que si un utilisateur s’acte.

Anthropic utilisera les données des interactions avec ses produits de consommation, comme son chatbot Claude, dans les niveaux gratuits, pro et max. La nouvelle politique ne s’applique pas aux produits commerciaux d’Anthropic, notamment Claude Gov, Claude pour l’éducation ou l’utilisation d’API.

Les utilisateurs peuvent se retirer en décochez la boîte sur la fenêtre contextuelle intitulée Mises à jour des termes et politiques des consommateurs.


Anthropique

Capture d’écran via Bi



Remarquez les petits caractères: ces modifications prennent effet immédiatement lors de la confirmation. Anthropic indique également qu’il conservera les données des utilisateurs dans son backend sécurisé jusqu’à cinq ans. Auparavant, il a conservé les données utilisateur pendant seulement 30 jours.

Lorsqu’on lui a demandé des commentaires, un porte-parole anthropique a dirigé Trading Insider vers une section du billet de blog de l’entreprise sur la rétention des données.

« La période de rétention prolongée nous aide également à améliorer nos classificateurs – des systèmes qui nous aident à identifier une mauvaise utilisation – pour détecter les modèles d’utilisation nuisibles. Ces systèmes s’améliorent pour identifier l’activité comme les abus, le spam ou la mauvaise utilisation lorsqu’ils peuvent apprendre des données collectées sur des périodes plus longues, nous aidant à garder Claude en sécurité pour tout le monde », indique le Post.

Les utilisateurs de Claude peuvent également ajuster Paramètres de confidentialité à tout moment de la barre « Aide à améliorer Claude ».


Anthropique

Capture d’écran via Bi



Dans un e-mail à Trading Insider, un porte-parole anthropique a déclaré que les changements de politique contribueront à améliorer son processus de formation des données.

« La formation sur les conversations et les données de codage du monde réel nous aidera à améliorer Claude. Lorsqu’un développeur débogne le code avec Claude ou que quelqu’un obtient de l’aide à la rédaction d’un e-mail, ces interactions fournissent au modèle des signaux précieux sur ce qui fonctionne et ce qui ne fonctionne pas », a déclaré le porte-parole. « Cela crée une boucle de rétroaction qui aide les futurs modèles à améliorer les tâches similaires. La rétention de cinq ans aide également nos classificateurs de sécurité à apprendre à détecter les modèles d’utilisation nocifs au fil du temps. »

Les changements sont venus un jour après que Anthropic a publié un rapport indiquant que son chatbot Claude avait été armé par les cybercriminels. Dans un cas, Anthropic a noté qu’un acteur de menace utilisait le code Claude à un «degré sans précédent» pour «automatiser la reconnaissance, récolter les références des victimes et pénétrer les réseaux». Anthropic l’a surnommé « hacking ».

À cette fin, Anthropic a également déclaré dans son article de blog que les changements de confidentialité aideront à « renforcer nos garanties contre l’utilisation nocive comme les escroqueries et les abus ».

A lire également