sLIls ont tout pour réussir : vision stratégique, compréhension des enjeux globaux, maîtrise des arbitrages budgétaires, et pourtant… lorsqu’il s’agit d’industrialiser l’intelligence artificielle, c’est souvent un échec feutré. Le type d’échec qu’on ne raconte pas dans les comités exécutifs, mais que chacun sent.
Car l’IA n’est pas un logiciel. Ce n’est pas un outil. Ce n’est pas un produit que l’on « implémente ». C’est une forme de délégation décisionnelle encodée — et tant que cette vérité est niée, l’industrialisation échouera.
1. Automatiser à l’échelle : le piège de la promesse techno
Ce qui fonctionne en pilote s’effondre dès qu’il faut coordonner plusieurs services et réaligner des interprétations humaines. L’échec n’est pas technique. Il est culturel et structurel.
📌 Exemple : Target, en 2012, utilise une IA prédictive pour détecter des femmes enceintes. Un coupon est envoyé à une adolescente… que son père découvre enceinte.
Source : NYT – How Companies Learn Your Secrets
2. Intégrer sans rupture : l’illusion de la continuité
Une IA interroge les règles implicites de l’organisation. Elle fait exploser les consensus tièdes. Les organisations consensuelles résistent — passivement — à cette explosion.
📌 Exemple : IBM Watson Health proposait des traitements dangereux en oncologie, malgré une technologie avancée.
Source : STAT News – Watson recommended ‘unsafe’ cancer treatments
3. Rendre reproductible ce qui reste intuitif
Le savoir stratégique est souvent implicite. Industrialiser l’IA revient à capturer l’invisible et le traduire sans le trahir.
📌 Exemple : Knight Capital a perdu 440 millions de dollars en 45 minutes suite à une erreur de configuration algorithme.
Source : Bloomberg – The Rise and Fall of Knight Capital
4. Le théâtre des projets d’innovation : entre vanité et sabotage
Les cabinets de conseil livrent des slides, pas des solutions. Ils sont conseilleurs mais pas payeurs. Les projets creux pullulent. Et ceux qui menacent le statu quo sont sabotés de deux manières :
- Par les pragmatiques : “c’est inutile ou mal pensé”.
- Par les cyniques : “si ça marche, ça me renvoie à mon échec passé”.
📌 Exemple : Google Glass : technologie brillante, rejet sociétal, zéro usage réel.
Source : Wired – Why Google Glass Failed
5. L’IA force à décider là où l’ignorance arrangeait tout
Les zones d’ambiguïté protégeaient la paix sociale. L’IA exige des décisions là où les humains préféraient le flou. Elle révèle les angles morts, les contradictions, les hypocrisies structurelles.
📌 Exemple : Amazon abandonne une IA RH biaisée qui excluait systématiquement les femmes, fidèle aux données passées.
Source : Reuters – Amazon scraps secret AI recruiting tool
la loi protège-t-elle la complexité… ou l’opacité ?
Le RGPD empêche l’utilisation de critères que tout le monde connaît et qui sont basés sur des faits mais que personne ne peut assumer sans risquer des sanctions (ex : jeunes conducteurs plus accidentogènes, certains dirigeants de petites entreprises serial fraudeurs. Cela pose des problèmes d’industrialisation car les données sont mal structurées et laissées finalement à l’interpretation humaine. Il serait plus judicieux que la loi laisse faire et se contente d’encadrer les abus. La loi du marché et de la concurrence pourrait permettre de toute façon de fidéliser la clientèle en question si le biais n’était que de la décoration ou de la discrimination infondée.
Conclusion : l’échec est logique, mais il n’est pas inéluctable
Industrialiser l’IA, c’est bâtir une interface entre la logique humaine stratégique et la machine. Ceux qui échouent ne sont pas incompétents — ils sont seuls dans une configuration pour laquelle personne ne vend d’outil.
Et si, paradoxalement, l’IA pouvait justement être la solution ?
Pas l’IA gadget. Pas l’IA plug-and-play. Mais une IA construite pour capturer la logique propre du décideur lucide. Une IA incarnée.