Claude 2 : l’assistant virtuel créé par Anthropic, semble être un sérieux rival pour ChatGPT

0 5 220

Claude 2 (que nous appellerons Claude) est un nouveau chatbot qui se veut plus éthique et bienveillant que ChatGPT et Bard. Rapide présentation de cette nouvelle IA générative.

Si ChatGPT et Bard sont les noms à la mode quand on parle d’IA génératives, quelques compagnies parviennent tout de même à se démarquer en proposant des chatbots basés sur des technologies différentes. C’est le cas d’Anthropic, une startup d’intelligence artificielle basée à San Francisco fondée en 2021 par des anciens d’OpenAI. Elle ouvre aujourd’hui l’accès à son IA maison, prénommée Claude 2.

Dans le domaine très concurrentiel des Intelligences artificielles génératives, c’est sur le plan humain que Claude veut se démarquer de ChatGPT et Bard. Si à l’instar de ces derniers, il présente une interface de messagerie où les utilisateurs peuvent soumettre des questions ou des demandes et recevoir des réponses très détaillées et pertinentes, le chatbot cherche à combiner compréhension du langage, connaissances et surtout, empathie. Ses concepteurs mettent l’accent sur la sécurité et la bienveillance.

CLAUDE 2 VEUT ÊTRE UNE IA BIENVEILLANTE ET SÛRE

Pour atteindre cet objectif, Anthropic a entraîné Claude à travers une approche bien particulière : Constitutional AI. L’idée est d’intégrer des « principes constitutionnels » dans l’architecture et d’entraîner les modèles d’IA pour qu’ils alignent leurs objectifs sur des valeurs humaines fondamentales. Les concepteurs de Claude ont ainsi utilisé un système de récompenses et des pénalités pour contraindre la machine à adopter des comportements éthiques.

Claude d’Anthropic sera-t-il vraiment plus digne de confiance que ses confrères Bard et ChatGPT ? Pour l’heure, même ses concepteurs n’osent le clamer haut et fort. Au moment de se connecter au service, ils affichent d’ailleurs cet avertissement : « notre IA peut occasionnellement générer des informations incorrectes ou trompeuses, ou produire un contenu offensant ou tendancieux ». Claude n’est donc pas à l’abri des hallucinations et autres menteries. Laissons cependant à la startup le temps de développer son produit, car le chatbot n’est encore qu’en phase de bêta. L’approche d’Anthropic est intéressante et déjà 350 000 personnes sont sur liste d’attente pour pouvoir l’essayer. En effet, l’IA n’est pour l’instant accessible qu’aux États-Unis et au Royaume-Uni.

Cliquez pour noter ce post!
[Total: 0 Average: 0]
Comments
Chargement...