Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

le blog lintegral

actualités, économie et finance, nouvelle technologie, entrepreneuriat, histoire et colonisation...


L’illusion de l’IA globale

Publié par medisma sur 14 Mai 2019, 22:39pm

Comme je le dis souvent la technologie va vite, bien plus vite qu’on ne vous l’explique, mais les difficultés rencontrées sont elles aussi exponentielles !

Certaines entreprises ne font pas parler d’elles, mais atteignent des objectifs fous. DeepMind est parvenue à réduire de 40 % l’électricité utilisée dans les data centers de Google et cherche actuellement à réduire de 10 % la consommation électrique du Royaume-Uni. Ses recherches sont à un état avancé et même en cours de test. Imaginez, cela voudrait dire que le Royaume-Uni économiserait chaque année l’équivalent des trois quarts de la consommation annuelle de Londres !

L’IA de DeepMind pourrait réduire de 10% la consommation électrique du Royaume-Uni.


D’autres, au contraire, sont ultra communicantes et publient souvent… comme IBM (US4592001014 – IBM). Cette old tech a communiqué à tout-va sur son IA Watson pour prouver qu’elle était dans la nouveauté. Mais, au risque d’enfoncer des portes ouvertes, laissez-moi vous rappeler que l’important dans la tech, comme dans les autres secteurs, n’est pas de proposer un produit, mais bien d’en avoir un qui fonctionne et tienne ses promesses.

IBM jette l’éponge dans le domaine de la recherche pharmaceutique

En l’occurrence, Watson est en train d’échouer dans le secteur des “drug discoveries”, les programmes de recherche et d’identification de futures molécules thérapeutiques.

A force de communication, IBM a vendu Watson comme une IA globale capable de “faire beaucoup dans des domaines variés”. IBM parle de Watson pour les smart cities, les usines, la défense, la vente de détail, le marketing, etc. Mais tous ces secteurs sont uniques, tous ces secteurs ont des typologies et des formats de données très différents.

Je vous rappelle que l’IA Watson a d’abord été développée pour comprendre le langage naturel, ce qui n’est pas rien. Le programme avait gagné le jeu Jeopardy! en 2011. IBM le vendait en expliquant que, comme Watson était un ordinateur qui pouvait comprendre et faire des recherches dans de très vastes corpus de données écrites, il allait faire des merveilles dans tous les domaines. C’était une sorte de super-spécialiste capable de résoudre tous les problèmes grâce à sa mémoire phénoménale et sa culture sans limite.

Las, en 2017, une longue étude a comparé le traitement prescrit par des oncologues et le traitement conseillé par Watson. Les résultats furent assez mauvais pour Watson.

 

 

 

Le taux de réussite de Watson dans le diagnostic de trois cancers différents. Il s’étale de 49 % de réussite à 83 %, bien loin des attentes pour une IA digne de ce nom qui doit a minima atteindre 95 %.Sources: Journal of Clinical Oncology 2017Cancer Research 2017JCO Clinical Cancer Informatics 2018

 Les recherches ont montré que ces écarts venaient de l’incapacité de Watson à contextualiser l’environnement du malade, à explorer l’intégralité de ses données médicales et à remplir les blancs… Par exemple, Watson ne parvient à lire correctement que 90 % à 96 % des rapports médicaux. Ce qui peut être un gros problème.

Watson a du mal à contextualiser les données, ce qui fait chuter ses performances.

En décembre 2016, IBM et Pfizer annonçait en fanfare un partenariat prometteur. Ensemble, ils allaient accélérer la découverte pharmaceutique en simulant des tests et en croisant des données. L’idée était toujours la même : la capacité de Watson à analyser beaucoup de données pour faire ressortir des modèles. Mais, comme dans le cas du traitement des cancers, la variété des objectifs de chaque labo et l’incroyable diversité de typologies de données à traiter ont eu raison de Watson.

Les datas au cœur de l’intelligence artificielle

La plus grande difficulté dans le domaine de l’IA est la lecture, l’intégration et la compréhension de masse de données inimaginables. La difficulté est d’autant plus grande que la quantité de datas est grande et déstructurée !

Plus votre échantillon s’approchera d’une taille correcte – ni trop petite, ni trop grande – et plus la data sera techniquement uniforme, plus vous arriverez rapidement à quelque chose. Par exemple, Pharnext, une petite biotech française utilise l’IA et vient d’avoir de très bons résultats de Phase III. Pourquoi ? C’est en partie dû au fait que Pharnext utilise des datas de qualité qui sont assez uniformes – parce qu’on le sait, les datas brutes ne valent strictement rien. Leur base de données est stabilisée, c’est-à-dire que le besoin d’ajouts de nouvelles données est faible. Leur technique est de travailler sur le passé et sur des molécules déjà commercialisées pour construire des combinaisons. Les avantages de cette démarche sont multiples :

  • la quantité de datas est maîtrisée ;
  • la qualité des molécules passées au crible est déjà établie – ils savent vers où chercher ;
  • comme leurs bases de données reposent sur de vieilles molécules, les informations sont souvent de bonne qualité et elle a été vérifiée, ce qui permet une grande qualité et une bon formatage des données.

C’est un autre point crucial de l’IA : travailler sur le passé sans ajouts de datas en temps réel et avec une basse de données stable est plus simple que de travailler en temps réel ou quasi réel.

Pas d’IA globale avant un moment

Comprenez bien que l’IA du milieu du XXIe siècle sera une IA de spécialité, un bloc technique qui fera un travail précis. Peut-être que dans un futur plus ou moins proche, ces blocs parviendront à s’interconnecter, mais en aucun cas nous ne verrons des systèmes globaux partout capables d’être portés à une grande échelle.

La qualité de l’IA est directement lié à la qualité et à l’uniformité de la data disponible.

L’un des axes de progression les plus importants de l’IA découlera de la qualité et de l’uniformité de la data disponible. C’est pourquoi l’Internet des objets, et notamment sa capacité à capter de la donnée ordonnée et normalisée, sera la prochaine révolution.

En tant qu’investisseur, prenez garde à ne pas vous faire berner par la communication à tout-va des grandes firmes (voire des petites). Les sociétés du compartiment technologique ont tendance à survendre leurs produits, surtout dans les secteurs innovants. Il faut se méfier comme de la peste des buzzwords : évoluer dans le bon secteur ne fait pas de vous un champion !

L’important est que le produit fasse ce qu’il doit faire, qu’il résolve des problèmes. Il faut absolument se prémunir d’une vision utopiste et trop futuriste ! Malgré tous les discours marketing, les avancées se font en réalité à petit pas et de manière très localisée.

 

Par ARTHUR TOCE

Arthur Toce a fait Epitech et investit en Bourse depuis qu’il a 15 ans. Après avoir travaillé chez Orange et SoftBank, il se consacre désormais en solo à sa passion : le capital-risque et l’investissement dans les technologies. Il conseille plusieurs startups dans le domaine de la blockchain et du esports et organise d’ailleurs un des plus gros tournois de Smash Bross européen.

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article

Archives

Nous sommes sociaux !

Articles récents