Intelligence artificielle : le nouvel oracle ?

L’intelligence artificielle s’infiltre dans les processus et les usages. Elle interroge de multiples fonctionnalités, des plus complexes au plus banales. Ses contours exacts, ses limites, voire même sa légitimité, restent néanmoins encore relativement insaisissables, ce qui n’est pas sans être source
d’inquiétude et de fascination.

La notion d’intelligence artificielle n’est pas nouvelle, c’est même une vénérable dame apparue il y a soixante-dix ans. Comme souvent, une notion, un concept, un principe végète des décennies voire des siècles avant de rencontrer les conditions techniques de son avènement. Et encore, le processus n’est-il pas toujours linéaire. En 2015, un ordinateur a pu mobiliser suffisamment de puissance de calcul pour l’emporter face au raisonnement humain lors d’une partie de go, dernier jeu de plateau où l’homme battait encore la machine. Considéré comme un tournant dans le « machine learning », c’est-à-dire le fait que les machines apprennent en se gavant de données, l’événement, n’avait pas donné lieu à un emballement tel que celui que l’on connaît aujourd’hui autour de la question de l’intelligence artificielle.

Mais le contexte est différent aujourd’hui. L’intelligence artificielle apparaît désormais à la confluence de plusieurs phénomènes ainsi que le décrit Georges Nahon, ancien p.d-g d’Orange Silicon Valley à San Fransisco, aujourd’hui analyste et consultant en innovation numérique : « plusieurs innovations concomitantes ont stimulé la croissance de l’IA : de nouvelles avancées dans les modèles mathématiques, les progrès dans les équipements et les puissances de calcul mais aussi l’émergence de données massives et de qualité suffisante ». Le succès de robots génératifs comme ChatGPT ou Midjourney, leurs progrès fulgurants, a également fait évoluer le regard du grand public sur l’IA. La ruée des start-up sur ce filon numérique, la masse invraisemblable des levées de fonds, font aussi de l’IA ce que certains pensent être une bulle comme celle qui avait accompagné la naissance du net à la fin des années 1990. Tout cela concourt à une sorte de nouveau mythe disruptif et alimente le fantasme d’une intelligence substitutive qui ferait entrer l’humanité dans une ère nouvelle d’abondance. En attendant le grand soir de l’humanité, mieux vaut-il peut être s’attarder sur ce que recouvre exactement cette notion d’IA et les technologies induites. L’euphorie n’est pas forcément bonne conseillère.

De la statistique, pas de logique

« L’ IA générative n’a pas de raison, ne comprend rien, ne déduit rien. Elle ne connaît pas la précision, l’exactitude, l’intention, elle ne veut rien », expose froidement Georges Nahon. L’IA, ce sont avant tout des algorithmes à qui l’on fait lire des sommes énormes de données, des textes par exemple pour ce qui concerne les robots conversationnels, mais ce n’est pas une base de données qui détient quelque chose comme un savoir et qui pratiquerait une inférence logique entre plusieurs propositions. L’inférence dont il s’agit est ici statistique. « C’est une technologie qui fonctionne selon une approche probabiliste entre les mots, poursuit Georges Nahon. Un problème logique, par exemple, y est traité de façon statistique, ce n’est pas raisonné, ça ne comprend rien… C’est pourquoi l’IA peut livrer une information tellement plausible et séduisante mais tout à fait fausse ». Car l’IA a des « hallucinations », terme consacré pour désigner les égarements du système lorsqu’ils se produisent.

Le débat s’inscrit souvent autour des dangers que l’IA, en tant que pensée augmentée, ferait courir à nos facultés cognitives, à leurs conditionnalités même que sont l’incertitude créatrice et le libre arbitre. Mais l’IA n’est pas un mauvais génie en soi. C’est avant tout un champ disciplinaire où se croisent la recherche en informatique, en mathématiques, en statistique voire en sciences cognitives. La puissance des algorithmes, le fait qu’ils puissent désormais imiter le fonctionnement structurel neuronal humain (le « deep learning » ou apprentissage profond), laisse à penser que nous ne sommes pas encore parvenus aux limites physiques du système. L’IA n’a d’ailleurs pas de définition scientifique qui fasse consensus. Le simple terme d’intelligence artificielle, lui-même, est problématique : comment un système programmatique peut-il être intelligent ? Pour L’Organisation de coopération et de développement économiques (OCDE), un système d’IA est « un système basé sur une machine qui, pour des objectifs explicites ou implicites, déduit, à partir des informations qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions, pouvant influencer les environnements physiques ou virtuels. Les différents systèmes d’IA varient dans leurs niveaux d’autonomie et d’adaptabilité après leur déploiement ».

Quelle utilité pour les éleveurs ?

L’IA ne se limite pas à ses versions génératives. Elle œuvre aussi dans l’ombre des besoins techniques et scientifiques spécialisés, un domaine où les ingénieurs agricoles apparaissent d’ailleurs aujourd’hui très en pointe, mais où l’IA est davantage perçue comme un super assistant aux missions ciblées plutôt que comme l’oracle de toute chose et de son temps. « Il faut de toute façon sortir des stéréotypes et démystifier l’intelligence artificielle, considère Vincent Lefer, datascientist et responsable du Datalab d’Eliance, fédération des entreprises de conseil et service en élevage où les systèmes d’IA interviennent dans la mise au point d’outils auxiliaires à destination des éleveurs, de leurs conseillers, des ingénieurs ou des chercheurs. Il y a nécessairement quelque chose de conditionné dans l’IA, c’est-à-dire basé sur des données orientées à la source… L’ IA a des limites », poursuit Vincent Lefer. Et ces limites pourraient bien être celles aussi, physiques, des infrastructures gigantesques nécessaires au stockage de données et aux calculs, celle de leur besoin en énergie, celle de la matière première minérale extractible…

Dans l’univers agricole, de nombreux projets sont en cours d’étude dont le propre est de s’inscrire dans des besoins définis afin d’améliorer les processus d’élevage, qu’il s’agisse de sélection, de reproduction, de santé, de production ou encore d’adaptation à l’environnement (stress climatique notamment). Le point commun à tous ces projets est souvent la notion de prédiction. Anticiper le bon animal, ses performances, sa santé, sa production, etc. On ne fait pas de l’IA pour faire de l’IA. Dans quelle mesure la puissance de calcul de ces systèmes appliqués aux bases de données agricoles peut-elle inférer des réponses et des solutions concrètement utiles aux éleveurs ? Voilà qui reste la mesure de toute chose. « L’important est de bien déterminer quels sont les besoins dans un contexte d’intégration technologique, explique Faycal Rezgui, directeur et co-fondateur de Araïko (anciennement Cynapps), entreprise spécialisée dans l’expertise des solutions d’IA. C’est toujours l’humain qui, certes, se fait aider par l’IA, mais reste au centre. Ce qui est différent d’un système où l’on placerait l’IA au commencement de tout en essayant ensuite de faire qu’il en sorte quelque chose ».

Facebook
Twitter
LinkedIn