
From Denied Claims to Shadow AI: A Provider's Guide to Getting AI Right
March 13, 2026 | 7 Lecture minute
The pressure on health systems has never been greater. Physicians are burning out, administrative burdens keep climbing, and the financial margin for error is shrinking. AI promises to help. In many cases, it genuinely can, but the gap between a well-implemented AI strategy and a collection of disconnected tools is wider than most organizations realize.
We sat down with Scott Poulin, VP of Technology at Improving, to address the four areas where AI is having the most real-world impact on healthcare providers right now and where the biggest risks are hiding.
Gestion du cycle des recettes : Exiger des résultats, pas des promesses
Les refus de demandes initiales atteindront 11,8 % en 2024Près de la moitié d'entre eux sont dus à des données manquantes ou inexactes. Il s'agit d'un montant considérable de revenus perdus en raison d'erreurs évitables, et c'est exactement le type de problème que l'IA est conçue pour résoudre.
Le potentiel est réel : vérification de l'éligibilité, précision du codage, exhaustivité de la documentation, prédiction des refus. Mais le problème des attentes est tout aussi réel. De nombreuses organisations ont investi dans des outils de RCM en s'attendant à une amélioration immédiate et spectaculaire, pour finalement constater que les résultats étaient décevants. Ce n'est généralement pas la technologie qui est en cause, mais les fondations sur lesquelles elle repose.
"Les gens s'attendaient à ce que l'IA ait raison 100 % du temps, dès le premier jour", note M. Scott. "C'est impossible. Mais elle peut devenir beaucoup plus précise au fil du temps."
La voie à suivre est disciplinée et non dramatique. Avec les bonnes pratiques de collecte de données et les cadres d'analyse des risques en place, les organisations peuvent réduire progressivement les taux d'erreur, de 46 % à 32 %, puis 20 %, puis 10 %, au fur et à mesure que l'IA apprend continuellement de vos propres flux de travail.
Chez Improving, nous aidons les systèmes de santé à construire vers un codage et une facturation autonomes en commençant par cette base. Avant d'évaluer un outil de RCM, la question la plus importante est de savoir si votre organisation dispose de l'infrastructure nécessaire pour permettre à l'IA de s'améliorer réellement. Si les données qui entrent sont erronées, aucun outil ne pourra corriger ce qui en sort.
Documentation clinique : La précision en tant que partenariat
La grille tarifaire des médecins de la CMS pour 2026 met davantage l'accent sur la précision de la documentation, et les conséquences d'un manquement sont importantes, tant sur le plan financier que clinique. Pour de nombreux prestataires, c'est là que l'incertitude autour de l'IA est la plus forte. Que se passe-t-il en cas de problème ?
La réponse réside dans la manière dont l'IA est positionnée dans le flux de travail. Elle ne remplace pas le jugement du médecin. Elle le vérifie et constitue une ressource qui fonctionne dans les deux sens.
"C'est une deuxième paire d'yeux", explique M. Scott. "Le médecin peut coder les choses efficacement, mais si quelque chose lui échappe, ou vice versa, l'IA le code et le médecin l'attrape. Les erreurs de diagnostic sont plus nombreuses, la documentation incomplète est remplie et les erreurs de codage sont corrigées presque en temps réel.
Il existe également une dimension réglementaire. Lorsque de nouvelles règles de codage entrent en vigueur, les systèmes de surveillance alimentés par l'IA peuvent absorber et appliquer ces changements plus rapidement que n'importe quel clinicien travaillant sur un nouveau mémo. Mieux encore, lorsque le système applique une nouvelle règle, il peut en expliquer les raisons directement au prestataire, sur le lieu de soins. La conformité devient un moment d'apprentissage plutôt qu'un résultat d'audit.
Improving construit des intégrations AI de documentation clinique en gardant à l'esprit ce modèle de partenariat. L'objectif est d'obtenir un système qui rend votre équipe plus précise et mieux informée à chaque interaction, et non pas un système qui introduit de nouvelles incertitudes.
La crise du personnel : L'intégration plutôt que l'ajout
Avec une estimation de 96 000 médecins devraient quitter le secteur de la santé en 2026, le personnel clinique est déjà surchargé.le personnel clinique est déjà surchargé. Les scribes ambulants et les outils de prise de notes assistée par ordinateur ont été présentés comme une soupape de sécurité permettant de réduire la charge documentaire et de consacrer plus de temps aux patients.
Ces outils peuvent être utiles. Mais il y a une question plus importante qui n'est souvent pas posée : La documentation est-elle vraiment la source du fardeau ?
"La plupart de ces médecins et de ces infirmières sont épuisés par toutes les tâches qu'ils ont à accomplir", fait remarquer M. Scott. "Il y a un tas de choses qu'ils doivent faire et qui sont plus exigeantes sur le plan cognitif que la simple prise de notes.
Un cas concret illustre bien ce point. Un groupe a déployé 30 systèmes d'IA différents dans une salle d'urgence pour aider à gérer les tâches cliniques. Chaque système a démontré sa valeur individuellement. Mais lorsque les 30 systèmes ont fonctionné simultanément, les performances des cliniciens ont chuté de 30 %, car le personnel devait désormais gérer 30 interfaces différentes pour prendre une seule décision.
Plus d'outils n'est pas synonyme d'allègement de la charge de travail. C'est l'intégration qui l'est. La question n'est pas de savoir si un seul produit d'IA fonctionne bien de manière isolée, mais si votre écosystème d'IA fonctionne comme un ensemble cohérent, faisant apparaître les bonnes informations au bon moment sans exiger plus d'attention.
C'est sur ce point qu'Improving concentre son travail avec les systèmes de santé : il ne s'agit pas seulement d'évaluer si un outil est performant, mais s'il s'adapte véritablement à la manière dont les soins sont dispensés, et s'il réduit la charge cognitive ou l'alourdit discrètement.
L'IA fantôme : un risque déjà présent dans votre organisation
Des rapports de l'industrie ont désigné l'IA fantôme comme le #premier risque pour les prestataires de soins de santé en 2026. Il est facile de comprendre pourquoi.
L'IA fantôme n'est pas une brèche spectaculaire ou une violation évidente de la politique. Il s'agit d'un clinicien qui utilise une plateforme d'IA populaire pour rédiger une note ou résumer le dossier d'un patient parce que c'est rapide et pratique. Les intentions sont bonnes. Mais les données ne restent pas confinées.
Ces systèmes de gestion du cycle de vie peuvent prétendre qu'ils n'utilisent pas vos données pour construire leurs modèles", explique M. Scott, "mais ils ont explicitement déclaré lors d'entretiens publics qu'ils les utilisaient pour des activités de science des données". Cela signifie que les données de vos patients, sous une forme ou une autre, sont en circulation.
Dans les services financiers, l'exposition des données est grave. Dans le secteur de la santé, elle peut constituer une violation de la loi HIPAA, compromettre la confiance des patients et entraîner une responsabilité importante. La prévention nécessite un système. Improving s'attaque à l'IA de l'ombre grâce à un cadre à quatre piliers que nous appliquons à la fois en interne et avec nos partenaires du secteur de la santé :
Politique - Des règles claires et écrites concernant les outils d'IA autorisés et les circonstances dans lesquelles ils le sont.
Technologie - Outils approuvés avec des capacités définies et des normes de conformité documentées.
Formation - Un personnel qui comprend non seulement comment utiliser les outils approuvés, mais aussi pourquoi les garde-fous existent.
Surveillance - Des systèmes qui s'intercalent entre votre infrastructure et les plateformes externes, qui suivent les données partagées et signalent les violations des politiques avant qu'elles ne se transforment en incidents.
Le pilier technologique d'Improving est construit sur AWS, tirant parti des contrôles de sécurité natifs, de l'infrastructure de cloud privé et des services éligibles à l'HIPAA pour prendre en charge les charges de travail des soins de santé en toute sécurité. Cette approche de plateforme permet aux fournisseurs de normaliser la façon dont les outils d'IA sont déployés, gouvernés et accessibles, réduisant ainsi le risque d'IA fantôme non gérée tout en permettant l'innovation. En ancrant les décisions technologiques sur une base cloud sécurisée et conforme, les organisations peuvent appliquer une politique et une surveillance cohérentes au sein des équipes.
Il ne s'agit pas d'un exercice ponctuel. Il s'agit d'une pratique de gouvernance permanente, qui devient rapidement l'attente de base pour les systèmes de santé fonctionnant de manière responsable dans un environnement basé sur l'IA.
Par où commencer ?
La complexité de l'IA dans l'espace des prestataires peut sembler écrasante. Les outils se multiplient, les réglementations se durcissent, la pression sur la main-d'œuvre augmente. C'est beaucoup à naviguer tout en gérant un système de santé.
L'approche d'Improving consiste à rencontrer les organisations là où elles se trouvent. Certains systèmes de santé gèrent déjà des programmes d'IA matures et ont besoin d'aide pour resserrer la gouvernance ou intégrer des outils fragmentés. D'autres en sont à un stade plus précoce et bénéficient d'une évaluation structurée de leur situation et des priorités à établir.
Ce qui est constant dans chaque engagement, c'est une conviction simple : l'IA dans le secteur de la santé n'est pas facultative. Pour les prestataires, elle devient le fondement d'opérations durables, conformes et financièrement saines. Vous êtes prêt à discuter de la situation de votre organisation ? Entamons la conversation.






