Maîtrisez les hallucinations de votre modèle de langage

Créé le 12/05/2024
600_520344635.webp

Description

Le mardi 14 mai, de 12h15 à 13h00, Eric Debeir (Directeur technique et scientifique de Datalchemy) animera un webinaire sur le thème du contrôle des hallucinations des LLM.


Les Large Language Models sont partout, mais souffrent toujours d'hallucinations rendant leur utilisation délicate. Ces outils peuvent produire des résultats impressionnants, puis faillir sans prévenir. Peut-on exploiter leurs bons côtés tout en limitant leurs échecs ? Nous observons ces dernières années une approche de plus en plus répandue où le LLM, utilisé pour ses capacités d'exploration, est conjugué à un autre outil validant ses résultats. AlphaGeometry, approche SAFE de Deepmind, combinaison avec des tests unitaires, nous détaillerons ces méthodes et verrons comment celles-ci préfigurent une utilisation efficace pertinente des LLMs, pas si loin de ce que l'on observe dans l'exploitation de jumeaux numériques.

N'hésitez pas à visiter notre site : https://datalchemy.net/

Merci, et au plaisir de vous compter parmi les participant.e.s.

Continent

Pays

Ne ratez rien et retrouvez tous les évènements

https://ai-memory.io/page/HSUDnwIUar7o08uTo1qf

Ajouté par

AI memory

Date

Le 14/05/2024

Nature de l'évènement

  • Meetup
  • En ligne

Langue(s)

Français