les gigamodèles réservés aux gafam ?

Depuis 2019, dans le cadre du partenariat entre Avignon Université et la French Tech Grande Provence, nous sommes associés au Festival IA de la chaire LIAvignon. Cette année, (comme chaque année), une conférence ouverte à tous, est destinée à rassembler les entreprises et les chercheurs, autour des enjeux de l’Intelligence Artificielle.

Quand on parle de gigamodèles, émerge une chose nébuleuse pour les néophytes, qui tient du mastodonte, ou d’un animal sorti d’une imagerie du Ladinien. Depuis deux ou trois ans, ces modèles qui dépassent le milliard de paramètres deviennent la tendance lourde de l’Intelligence Artificielle. Mais qui les développe ? Pour quelles applications ?

C’est ce qu’a démontré Ariane Naberth-Halber, Directrice IA chez Viadialog. Produits par quelques acteurs (Google, MicroSoft, HuggingFace), ils intègrent de l’apprentissage auto-supervisé et font suite aux premiers modèles de traitement automatique du langage naturel (Bert, GPT3 qui actuellement est entrainé avec 175 milliards de paramètres).

Quelles sont les applications de ces gigamodèles gourmands en ressources ? La création, par exemple, automatisée d’images générées après un ensemble de mots ou phrases choisis par l’opérateur, et plus récemment des vidéos, ou bien l’analyse d’un texte, la traduction d’une langue à une autre. Ou plus énorme, la génération de codes informatiques à partir d’instruction en langue naturelle.

Est-ce que ces gigamodèles sont infaillibles ? C’est tout le travail de démonstration à cette conférence de Yannick Esteve Professeur et Directeur du LIA. Les Gigamodèles commettent plus d’erreurs que les petits modèles dans le cadre de traduction d’une langue à une autre. Gafam comme chercheurs planchent sans pouvoir trouver la cause. Comme le soulève Emilie Chouzenoux, Chargée de recherche à l’Inria de Saclay, travaillant sur l’imagerie médicale, il est encore bien loin le temps où l’intelligence artificielle remplacerait les radiologues.

Seuls les entreprises qui possèdent d’énormes ressources peuvent se permettre de posséder des gigamodèles. Mais pour certaines applications les petits modèles plus accessibles pour les centres de recherche et les entreprises restent appropriés. Il convient d’examiner avec soin à quels usages destiner le modèle.

Sur le territoire, il y a peu de startups aujourd’hui qui embarquent l’intelligence artificielle dans leurs solutions. Citons les plus avancées Hiphen, Millionroads, SignalMed+, Vegetal Grow Development et EEC Technologies qui a représenté la French Tech Grande Provence à cette conférence. Nul doute qu’avec les enjeux sur les données, et leur augmentation en nombre, elles seront confrontées dans les années à venir aux problèmes d’accès aux traitements de données avec de très nombreux paramètres.

Il faut saluer le travail de vulgarisation de l’équipe de la Chaire LIAvignon, notamment Jean-François Bonastre et Corine Fredouille, permettant ainsi de comprendre le fonctionnement des gigamodèles, leurs limites et la puissance réelle de l’intelligence artificielle, souvent fantasmée par le cinéma comme omnipotente et dotée de conscience.

 

Vous aimerez peut-être aussi

✤ les coulisses

104 ACTIONS

104 actions pour changer 104 actions pour s’engager dans la durabilité, faire le choix de

⦿ décodeur

TRAVAILLER DANS LE NUMÉRIQUE

travailler dans le numérique Travailler dans le numérique, qu’est-ce que ça veut dire aujourd’hui, quand

rewind

retrousser ses manches

Retrousser ses manches Le groupe de travail Emploi et formation créé mi 2021 au sein

© 2021 La French Tech Grande Provence – mentions légalespolitique de confidentialité