banner

Nouvelles

Oct 05, 2023

Tirer parti des données cliniques des établissements de santé pour un apprentissage continu des modèles de risque prédictif

Rapports scientifiques volume 12, Numéro d'article : 8380 (2022) Citer cet article

Accès 2018

5 Citations

11 Altmétrique

Détails des métriques

La flexibilité inhérente des modèles prédictifs cliniques basés sur l'apprentissage automatique pour apprendre des épisodes de soins aux patients dans un nouvel établissement (formation spécifique au site) se fait au prix d'une dégradation des performances lorsqu'ils sont appliqués à des cohortes de patients externes. Pour exploiter tout le potentiel des mégadonnées cliniques interinstitutionnelles, les systèmes d'apprentissage automatique doivent acquérir la capacité de transférer leurs connaissances au-delà des frontières institutionnelles et d'apprendre des nouveaux épisodes de soins aux patients sans oublier les schémas précédemment appris. Dans ce travail, nous avons développé un algorithme d'apprentissage préservant la confidentialité nommé WUPERR (Weight Uncertainty Propagation and Episodic Representation Replay) et validé l'algorithme dans le contexte de la prédiction précoce de la septicémie en utilisant les données de plus de 104 000 patients dans quatre systèmes de santé distincts. Nous avons testé l'hypothèse selon laquelle l'algorithme d'apprentissage continu proposé peut maintenir des performances prédictives plus élevées que les méthodes concurrentes sur les cohortes précédentes une fois qu'il a été formé sur une nouvelle cohorte de patients. Dans la tâche de prédiction de la septicémie, après la formation incrémentielle d'un modèle d'apprentissage en profondeur dans quatre systèmes hospitaliers (à savoir les hôpitaux HA, HB, HC et HD), WUPERR a maintenu la valeur prédictive positive la plus élevée dans les trois premiers hôpitaux par rapport à une approche d'apprentissage par transfert de base (HA : 39,27 % contre 31,27 %, HB : 25,34 % contre 22,34 %, HC : 30,33 % contre 28,33 %). L'approche proposée a le potentiel de construire des modèles plus généralisables qui peuvent apprendre des mégadonnées cliniques interinstitutionnelles d'une manière préservant la confidentialité.

La résurgence remarquable de l'intelligence artificielle et son impact sur l'automatisation industrielle, l'optimisation de la satisfaction client et des revenus au cours de la dernière décennie ont entraîné un intérêt croissant pour l'application des technologies connexes aux soins de santé1,2,3. En particulier, les techniques d'apprentissage en profondeur ont attiré une attention accrue en médecine clinique, y compris le dépistage et le triage, le diagnostic, le pronostic, l'aide à la décision et la recommandation de traitement4,5,6,7,8,9,10,11,12,13. Pour obtenir une large adoption clinique, les modèles cliniques basés sur l'apprentissage en profondeur doivent être généralisables et portables, et garantir la confidentialité des patients dont les données sont utilisées pour la formation et les évaluations des modèles14,15. Dans la pratique, les modèles entraînés sur les données d'un seul système de santé souffrent souvent d'un manque de généralisabilité en raison des différences dans la démographie locale, l'équipement et les tests de laboratoire, les dossiers de santé électroniques (DSE), la fréquence de mesure des données et les variations des pratiques cliniques et administratives, y compris codage et définitions de divers diagnostics cliniques16. Il a été avancé que les mégadonnées cliniques, lorsqu'elles sont combinées à la flexibilité inhérente des modèles d'apprentissage en profondeur pour apprendre à partir de nouvelles données/expériences, pourraient en théorie répondre à une partie de cette hétérogénéité. Cependant, les données de santé restent cloisonnées et l'accessibilité des données et la confidentialité des patients posent un défi important pour tirer pleinement parti de la puissance de l'analyse avancée dans le domaine de la santé15,17. Ainsi, de nos jours, les données cliniques typiques utilisées pour le développement de modèles sont souvent inférieures de plusieurs ordres de grandeur à celles qui alimentent les applications industrielles de l'apprentissage en profondeur18.

Une récente validation indépendante et externe d'un score de risque de prédiction de sepsie basé sur l'apprentissage automatique largement utilisé a mis en évidence le problème de la généralisabilité du modèle en présence d'un changement de distribution des données et de changements dans le groupe de cas de la population19,20. Une solution potentielle pour améliorer la validité externe des systèmes d'apprentissage en profondeur consiste à affiner ces modèles dans chaque nouveau cadre de soins (alias, apprentissage par transfert)21,22. Cependant, cette approche peut se traduire par de nombreuses versions d'un même algorithme fonctionnant dans des contextes de soins différents, ce qui soulève des préoccupations réglementaires en matière de conduite du changement et des défis scientifiques en matière de production de connaissances généralisables23. Par conséquent, il est souhaitable de concevoir des algorithmes et des modèles d'apprentissage qui peuvent exploiter les données des patients dans diverses cohortes de patients d'une manière préservant la confidentialité et avec des plans de contrôle des changements bien définis24 qui peuvent maintenir des performances acceptables tout en gérant les risques potentiels pour les patients.

L'apprentissage fédéré et/ou distribué est une méthode d'apprentissage de modèles à partir de données réparties sur différentes sources25. Des méthodes de préservation de la vie privée ont été proposées pour tirer parti de ces données pour l'apprentissage tout en respectant les limites institutionnelles et l'autonomie sur les données des patients26,27. Ces modèles supposent que les données sont disponibles à la fois sur plusieurs sites26,28, cependant, dans la pratique, les modèles d'apprentissage en profondeur sont souvent développés et déployés au fil du temps de manière séquentielle (par exemple, à mesure qu'une entreprise élargit sa clientèle), où un modèle formé et validé sur les données d'un seul établissement de santé (Hôpital-A) est diffusé et mis en œuvre sur un deuxième (Hôpital-B) et des sites suivants (Hôpital-C, etc.). Comme alternative aux deux extrêmes de (1) maintenir tous les coefficients du modèle fixes et (2) déploiement du modèle spécifique au site où les coefficients du modèle sont ajustés avec précision à chaque population locale de patients, on peut imaginer un scénario où un seul modèle continue d'apprendre de nouvelles cohortes de patients et maintient la généralisabilité. Ce scénario est étroitement lié au cadre d'apprentissage continu (alias, apprentissage tout au long de la vie) dans la littérature sur l'apprentissage en profondeur, où un modèle est formé pour apprendre une série de tâches de manière séquentielle (par exemple, prédire la mortalité dans les hôpitaux A, B, C, etc.) tout en maintenant des performances acceptables sur les tâches précédentes (c'est-à-dire, surmonter «l'oubli catastrophique»)29,30,31.

Malgré le besoin d'algorithmes d'apprentissage continu robustes en milieu clinique, les applications de ces méthodes à la modélisation prédictive clinique restent rares32. Ici, nous considérons un problème cliniquement significatif impliquant la prédiction de la septicémie chez les patients gravement malades. En utilisant les données de quatre cohortes de septicémie, nous avons développé et validé un cadre d'apprentissage continu (voir Fig. 1) pour la formation séquentielle de modèles prédictifs qui maintiennent des performances cliniquement acceptables dans toutes les cohortes tout en préservant la confidentialité des données des patients. En nous inspirant des derniers développements de la littérature sur l'apprentissage tout au long de la vie, nous proposons un cadre conjoint de consolidation élastique des poids (EWC)33 et de relecture de représentation épisodique (ERR)34,35,36,37 pour mettre à jour en permanence nos modèles prédictifs sur de nouvelles cohortes de patients. La figure 1 illustre les éléments de base du cadre proposé de relecture de l'incertitude de poids et de la représentation des épisodes (WUPERR). WUPERR réalise un apprentissage continu grâce à deux mécanismes : (1) suivre les poids du réseau qui sont essentiels aux tâches précédentes et doivent donc rester inchangés au cours de l'apprentissage d'une nouvelle tâche ; et (2) entrelacer des représentations de données d'apprentissage provenant de tâches antérieures lors de l'acquisition d'une nouvelle tâche. Pour assurer la confidentialité, WUPERR remplace les caractéristiques brutes au niveau du patient par des représentations cachées apprises via un réseau de neurones (par exemple, l'activation des neurones dans la première couche du réseau), évitant ainsi la nécessité de déplacer les informations de santé protégées en dehors des frontières institutionnelles.

Le but de cette étude était d'examiner si l'approche d'apprentissage continu proposée offre une meilleure généralisabilité à toutes les cohortes de patients. Nous avons émis l'hypothèse que l'incorporation des méthodologies EWC et ERR se traduirait par un modèle plus généralisable qu'une approche d'apprentissage par transfert précédemment explorée dans ce contexte21. Pour explorer davantage l'effet de l'apprentissage continu sur divers paramètres du réseau, nous avons effectué une analyse par couche de l'adaptation du poids avec l'apprentissage de nouvelles tâches. Nous avons testé l'algorithme WUPERR dans le contexte de la formation séquentielle d'un modèle d'apprentissage en profondeur pour la prédiction précoce de la septicémie dans quatre populations géographiquement distinctes aux États-Unis (total de 104 322 patients). Notre approche d'apprentissage continu proposée permet de tirer parti des données au-delà des frontières institutionnelles pour former séquentiellement des scores de risque prédictifs généralisables d'une manière qui préserve la confidentialité.

Schéma de principe de l'algorithme WUPERR. La formation commence par un ensemble de poids initialisés de manière aléatoire, qui sont formés sur la première tâche (par exemple, la prédiction sur les données de l'hôpital-A). Dans toutes les tâches d'apprentissage ultérieures, les poids de la couche d'entrée (\(W_1^A\)) sont maintenus figés. Les paramètres de réseau optimaux, les incertitudes des paramètres sous la tâche-A et l'ensemble des représentations de la cohorte d'entraînement de l'hôpital-A (\(\{h_1^A\}\)) sont ensuite transférés à l'hôpital-B. Les couches plus profondes du modèle sont affinées pour effectuer la deuxième tâche (par exemple, la prédiction sur les données de l'hôpital-B) en rejouant la représentation des données de l'hôpital-A et de l'hôpital-B. De même, les paramètres optimaux et leurs niveaux d'incertitude ainsi que les représentations de l'hôpital-A et de l'hôpital-B sont transférés à l'hôpital-C pour affiner le modèle lors de l'exécution de la troisième tâche. Notez qu'à aucun moment les informations de santé protégées (PHI+) ne sortent des frontières institutionnelles d'un hôpital donné. Enfin, au moment de l'évaluation (sur des données de test) à une tâche donnée, le modèle est évalué sur l'ensemble des cohortes hospitalières.

Nous avons évalué les performances de l'algorithme d'apprentissage proposé pour la prédiction précoce de l'apparition de la septicémie chez les patients hospitalisés dans quatre systèmes de santé. Une étude comparative de WUPERR par rapport à plusieurs modèles de référence est présentée dans les Fig. S4 à S6, cependant, par souci de brièveté, nous ne rapportons que les performances de WUPERR par rapport à l'apprentissage par transfert dans la section suivante.

Évaluation de modèles d'apprentissage continu pour la prédiction précoce de l'apparition d'une septicémie, mesurée à l'aide de la métrique Area Under the Curve (AUC). (a) Illustre l'ASC d'un modèle (médiane [IQR]) formé à l'aide de l'apprentissage par transfert. La performance du modèle est rapportée (à l'aide de différents marqueurs ; voir la légende) pour toutes les cohortes après un entraînement séquentiel sur les données d'un hôpital donné sur l'axe des abscisses. (b) montre l'ASC du modèle WUPERR proposé, dans le même cadre expérimental que (a). Au moment de l'évaluation (sur données de tests) sur un site donné, le modèle est évalué sur l'ensemble des cohortes hospitalières. Le style de ligne continue indique qu'au moment de l'évaluation du modèle (sur les données de test) sur un site donné, le modèle avait déjà vu les données d'apprentissage de ce site. Par exemple, étant donné que le modèle est d'abord formé sur les données de l'hôpital A, la performance du modèle sur cet ensemble de données après un apprentissage continu sur tous les hôpitaux suivants est affichée en trait plein pour signifier que le modèle avait déjà vu cette cohorte de patients dans le passé. (c) résume la performance du modèle (médiane [IQR]) sur les hôpitaux A à C après apprentissage continu sur les quatre hôpitaux avec apprentissage par transfert (rouge) et WUPERR (bleu).

Évaluation de modèles d'apprentissage continu pour la prédiction précoce de l'apparition d'une septicémie, mesurée à l'aide de la valeur prédictive positive (VPP) et de la sensibilité. (Atlanta) Illustre la VPP d'un modèle (médian [IQR]) formé à l'aide de l'apprentissage par transfert (mesuré à un seuil fixe de 0,41 correspondant à une sensibilité de 80 % à l'hôpital-A après la tâche 1, pour tous les plis et pour toutes les tâches). La performance du modèle est rapportée (à l'aide de différents marqueurs ; voir la légende) pour toutes les cohortes après un entraînement séquentiel sur les données d'un hôpital donné sur l'axe des abscisses. (Atlanta) montre la VPP du modèle WUPERR proposé, dans le même cadre expérimental que (Atlanta). (Atlanta) résume les performances du modèle (médiane [IQR]) sur les hôpitaux AC après apprentissage continu sur les quatre hôpitaux avec apprentissage par transfert (rouge) et WUPERR (bleu). (d – f) résument les résultats de sensibilité du modèle sous le même protocole expérimental.

Le cadre WUPERR a été utilisé pour former un modèle afin de prédire séquentiellement l'apparition d'une septicémie (définie selon les définitions consensuelles Sepsis-3 pour la septicémie et le choc septique) quatre heures à l'avance38. Pour étudier l'impact des variations dans la distribution des données sur les performances de notre modèle, nous avons formé notre modèle séquentiellement sur plus de 104 000 patients appartenant à quatre centres de soins intensifs avec diverses caractéristiques démographiques sous-jacentes. Le modèle a d'abord été formé sur l'ensemble de données Hospital-A (tâche 1), suivi de l'hôpital-B (tâche 2), de l'hôpital-C (tâche 3) et de l'hôpital-D (tâche 4). La performance du modèle entraîné séquentiellement à l'aide du cadre WUPERR a été comparée à une approche d'apprentissage par transfert de base. Les figures 2a à c montrent les performances de WUPERR sur les quatre ensembles de données hospitalières, où le modèle a été formé sur une cohorte à la fois et les performances sont rapportées sur les données de test de toutes les autres cohortes (cohortes précédentes et suivantes). Avec l'approche d'apprentissage par transfert, nous avons observé qu'avec la progression de la formation sur les nouvelles cohortes, la performance du modèle dégénère sur les cohortes précédentes. Alors que l'entraînement séquentiel par WUPERR a permis au modèle de maintenir des performances comparables sur des tâches plus anciennes. Par exemple, à la fin de la tâche 4 avec apprentissage par transfert, l'AUC du modèle sur la tâche 2 était de 0,90 [0,89–0,91], une baisse de l'AUC de 0,93 [0,92–0,94] lorsque le modèle a été formé sur les données de l'hôpital. -B (correspondant à la tâche 2). En comparaison, à la fin de la tâche 4 avec WUPERR, le modèle a maintenu ses performances sur la tâche 2 avec une AUC de 0,93 [0,91–0,94]. Notamment, nous avons observé que la supériorité de WUPERR sur l'apprentissage par transfert augmentait à mesure que le nombre de cohortes de formation ultérieures auxquelles le modèle était exposé augmentait (voir Fig. 2c, performance sur l'hôpital-A à la fin de la formation sur l'hôpital-D). De plus, nous avons observé qu'à la fin de la tâche 4, le modèle entraîné avec l'approche WUPERR était supérieur à l'apprentissage par transfert dans toutes les cohortes hospitalières (voir Fig. 2b).

Dans la figure 3, nous avons comparé la valeur prédictive positive (PPV) du modèle entraîné séquentiellement sur quatre cohortes à l'aide de l'approche WUPERR par rapport à l'approche d'apprentissage par transfert de base. Un seuil de décision correspondant à une sensibilité de 80 % a été choisi après la fin de la formation sur la tâche 1. Ce seuil de décision a ensuite été utilisé pour mesurer la valeur prédictive positive (VPP) pour toutes les tâches restantes. Nous avons observé que WUPERR surpassait systématiquement l'approche d'apprentissage par transfert dans toutes les tâches (voir Fig. 3a à c). Par exemple, avec WUPERR, la valeur prédictive positive (PPV) pour l'hôpital A est passée de 37,28 [35,57–37,69] après la tâche 1 à 39,27 [38,11–39,78] à la fin de la tâche 4, alors qu'avec l'approche d'apprentissage par transfert, la valeur prédictive positive (PPV) a chuté à 31,28 [30,11–31,78] à la fin de la tâche 4. De plus, WUPERR a pu maintenir des niveaux de sensibilité constants sur la cohorte Hospital-A tout en étant formé séquentiellement sur les tâches 2, 3 et 4 (79,70 [78,50 –82,57], 79,76 [79,57–81,20], 80,06 [79,87–81,50], respectivement). En comparaison, le niveau de sensibilité de la cohorte Hospital-A est tombé en dessous de 80 % lorsque le modèle a été formé sur les tâches 2, 3 et 4 dans le cas de l'approche d'apprentissage par transfert (voir Fig. 3d). Des profils similaires de sensibilité ont été observés pour les autres cohortes hospitalières. Enfin, nous avons observé que WUPERR était robuste à la commande de formation et surpassait systématiquement l'approche d'apprentissage par transfert, même lorsque la commande des hôpitaux était permutée (voir les figures supplémentaires S7 à S12).

Dans cette étude, nous avons conçu et validé un algorithme d'apprentissage continu pour la formation de modèles d'analyse prédictive clinique généralisables sur plusieurs cohortes de patients. WUPERR intègre la mémoire de répétition avec la propagation de l'incertitude de poids et permet aux modèles cliniques d'apprentissage en profondeur d'apprendre de nouvelles tâches tout en maintenant des performances acceptables pour les tâches précédentes. Nous avons évalué notre algorithme proposé sur quatre tâches consécutives impliquant une prédiction précoce du sepsis chez les patients hospitalisés. Nos résultats indiquent que WUPERR peut gérer avec succès les changements de distribution des données qui nuisent souvent à la généralisabilité des modèles prédictifs cliniques. En utilisant des représentations de données pour l'apprentissage continu, WUPERR permet aux données brutes de formation de rester sur chaque site et maintient ainsi la confidentialité et l'autonomie des données de santé. Nous avons comparé WUPERR à plusieurs références, notamment Transfer Learning21, EWC33 et Experience Replay, à l'aide de trois mesures de performance cliniquement pertinentes, à savoir l'AUCroc, la valeur prédictive positive et la sensibilité. On peut s'attendre à ce que l'apprentissage d'un modèle spécifique au site permette d'obtenir les meilleures performances, bien qu'un tel modèle puisse ne pas se généraliser correctement aux sites externes. WUPERR a surpassé l'apprentissage par transfert et l'EWC de base en termes de trois mesures pour atténuer l'oubli. L'un des principaux avantages de WUPERR est la capacité d'apprendre à partir de la représentation intégrée des points de données, ce qui fait de WUPERR une approche appropriée pour l'apprentissage continu préservant la confidentialité.

La recherche sur l'apprentissage automatique et l'apprentissage en profondeur a produit des résultats prometteurs dans l'identification, le diagnostic et l'administration de traitements dans le domaine de la santé39,40. L'amélioration des performances des algorithmes d'apprentissage en profondeur se fait au prix de la nécessité d'ensembles de données volumineux et diversifiés41. Cependant, les considérations de confidentialité des patients et de gouvernance des données ont contribué aux silos de données et ont rendu la tâche de construire de grands ensembles de données multicentriques impossible. Certains des défis liés à l'apprentissage de modèles complexes à partir de silos de données ont été résolus par l'apprentissage fédéré, où un algorithme d'apprentissage décentralisé s'appuie sur des mises à jour de modèles locaux pour construire un modèle global25,42,43. Huang et al., ont introduit le cadre d'apprentissage fédéré basé sur la communauté (CBFL) pour prédire le séjour prolongé en USI et la mortalité44. Qayyum et al., ont utilisé l'apprentissage fédéré en cluster (CFL) pour identifier les patients atteints de Covid-1945. Bien que prometteurs, les modèles d'apprentissage fédéré ont tendance à apprendre un modèle moyen qui peut fonctionner de manière sous-optimale au sein d'un site local donné. En particulier, les méthodes d'apprentissage fédéré standard ne résolvent pas le problème du changement de distribution des données et de la dérive des modèles qui résultent des différences dans les données démographiques des patients et les pratiques liées au flux de travail. D'autre part, les méthodes d'apprentissage continu (telles que WUPPER) permettent aux modèles d'apprendre progressivement de nouvelles tâches tout en préservant leurs performances sur les tâches précédentes. Cela permet à un modèle de s'adapter aux changements dynamiques et aux changements dans la distribution des données sur différents sites de soins de santé. Une analyse longitudinale récente d'un algorithme d'alerte au sepsis dans quatre systèmes de santé géographiquement diversifiés a signalé un changement important des ensembles de données en raison d'un changement dans le groupe de cas au fil du temps46. En tant que tels, la surveillance des algorithmes47 et l'apprentissage continu sont nécessaires pour garantir que ces systèmes s'adaptent aux changements sous-jacents dans la distribution des données et peuvent maintenir un haut niveau de précision.

Cette étude a plusieurs limites. La méthode d'apprentissage proposée permet à un modèle de s'adapter aux distributions de données changeantes entre les sites cliniques, cependant, une exigence clé est la qualité des données d'entrée et des étiquettes. Récemment, la prédiction conforme a été introduite pour fournir un cadre probabiliste pour évaluer les échantillons hors distribution et pour détecter les valeurs aberrantes et les données bruitées47. WUPERR peut être utilisé en association avec la prédiction conforme pour contrôler la qualité des données d'entrée sur chaque site pour un apprentissage continu. De plus, les différences de qualité des étiquettes sur les différents sites peuvent poser un défi à l'apprentissage continu. La combinaison de WUPERR avec des méthodes d'évaluation et de correction du bruit des étiquettes peut fournir un mécanisme de formation de modèles de haute qualité. De plus, WUPERR ne résout pas le problème de la disponibilité partielle des données, mais des travaux récents sur des réseaux de neurones en croissance continue peuvent être combinés avec WUPERR pour concevoir des algorithmes capables de tirer parti de variables et de fonctionnalités supplémentaires dans de nouveaux ensembles de données48,49. Enfin, les ensembles de données utilisés dans cette étude ont été recueillis auprès de grands centres médicaux universitaires et peuvent ne pas être représentatifs des petits hôpitaux communautaires et ruraux. Cependant, notre cadre proposé est susceptible de profiter aux petits hôpitaux qui ne disposent peut-être pas des ressources nécessaires pour maintenir de grands entrepôts de données cliniques, car il a été démontré que les réseaux de neurones pré-formés et affinés surpassent les réseaux de neurones formés à partir de zéro sur des ensembles de données plus petits22. En résumé, nos résultats fournissent des preuves cliniques significatives de l'applicabilité de l'apprentissage continu à la conception et à la mise à jour de modèles prédictifs cliniques généralisables.

Un total de 104 000 patients adultes admis dans les unités de soins intensifs de quatre établissements de santé géographiquement diversifiés, dont UC San Diego Health, Emory University Hospital, Grady Hospital et le Beth Israel Deaconess Medical Center (ci-après, Hospital-A, Hospital-B, Hospital- C et Hospital-D, respectivement) constituaient la cohorte de l'étude. Toutes les analyses ont été effectuées conformément aux directives et réglementations en vigueur. L'utilisation de données anonymisées utilisées dans cette étude a été approuvée par l'Institutional Review Board (IRB) de l'UC San Diego (IRB\(\#\)191098), l'IRB of Emory University/Grady Hospital (IRB\(\# \)110675), et le Beth Israel Deaconess Medical Center (IRB\(\#\)0403000206)50 et l'exigence de consentement éclairé ont été levées par les comités IRB de l'UC San Diego, de l'Université Emory/Grady Hospital et du Beth Israel Deaconess Medical Center, car l'utilisation de données rétrospectives anonymisées ne nécessite pas le consentement du patient en vertu des réglementations sur la confidentialité de la loi HIPAA (Health Insurance Portability and Accountability Act). Les patients de 18 ans ou plus ont été suivis tout au long de leur séjour en USI jusqu'au moment du premier épisode de septicémie ou jusqu'au moment du transfert hors de l'USI. Nous avons suivi les dernières directives fournies par les définitions du troisième consensus international pour la septicémie (Sepsis-3)38,51 qui définissent la septicémie comme un dysfonctionnement organique potentiellement mortel causé par une réponse dérégulée de l'hôte à l'infection. En tant que tels, les deux principaux critères pour établir le moment d'apparition de la septicémie comprenaient : (1) la preuve d'un dysfonctionnement aigu des organes et (2) la suspicion d'infection. La suspicion clinique d'infection a été définie par un prélèvement d'hémoculture et un nouveau démarrage d'antibiotiques intraveineux (IV) poursuivis pendant > = 3 jours consécutifs (à l'exclusion de l'utilisation prophylactique) satisfaisant l'une des conditions suivantes : (a) si un prélèvement d'hémoculture a été ordonné en premier, alors la commande d'antibiotiques devait avoir lieu dans les 72 heures suivantes, ou (b) si la commande d'antibiotiques avait lieu en premier, alors un prélèvement d'hémoculture devait avoir lieu dans les 24 heures suivantes. La preuve d'un dysfonctionnement d'organe a été définie comme une augmentation du score d'évaluation séquentielle des défaillances d'organes (SOFA) de deux points ou plus. En particulier, la preuve d'un dysfonctionnement d'organe survenant de 48 h avant à 24 h après le moment de l'infection suspectée a été prise en compte, comme le suggèrent Singer et al.51. Enfin, le moment de l'apparition du sepsis a été considéré comme le moment de la suspicion clinique d'infection. Pour permettre l'examen initial et la stabilisation des patients et la collecte de données adéquates à des fins de prédiction, nous nous sommes concentrés sur la prédiction horaire séquentielle de la septicémie à partir de la quatrième heure après l'admission aux soins intensifs. Les patients qui ont été identifiés comme ayant une septicémie avant l'heure de début de la prédiction ou ceux sans mesure de la fréquence cardiaque ou de la pression artérielle avant l'heure de début de la prédiction ou ceux dont la durée de séjour dans une unité de soins donnée était supérieure à 21 jours ont été exclus.

Un total de 40 variables cliniques ont été extraites dans les quatre hôpitaux (voir Matériel supplémentaire Fig. S2). De plus, pour chaque signe vital et variable de laboratoire, leurs tendances locales (pente de changement) et le temps écoulé depuis la dernière mesure de la variable (TSLM) ont été enregistrés, ce qui donne un total de 108 caractéristiques (le même ensemble de variables a été utilisé dans une étude précédemment publiée47). Les caractéristiques des patients des quatre cohortes ont été tabulées dans le tableau supplémentaire S1. Toutes les variables continues sont rapportées sous forme de médianes avec des écarts interquartiles (IQR) de 25 % et 75 %. Les variables binaires sont rapportées sous forme de pourcentages. Tous les signes vitaux et les variables de laboratoire ont été organisés en bacs de séries chronologiques sans chevauchement d'une heure et d'un jour pour tenir compte des différentes fréquences d'échantillonnage des données disponibles pour la cohorte de septicémie. Toutes les variables avec des fréquences d'échantillonnage supérieures à une fois par heure (ou par jour) ont été uniformément rééchantillonnées dans des intervalles de temps d'une heure (ou d'un jour), en prenant les valeurs médianes si plusieurs mesures étaient disponibles. Les variables ont été mises à jour toutes les heures lorsque de nouvelles données sont devenues disponibles ; sinon, les anciennes valeurs étaient conservées (interpolation sample-and-hold). L'imputation moyenne a été utilisée pour remplacer toutes les valeurs manquantes restantes (principalement au début de chaque enregistrement).

WUPERR combine la répétition de représentation épisodique (ERR) et la propagation d'incertitude de poids (WUP) pour permettre un apprentissage continu des tâches tout en atténuant le problème de l'oubli catastrophique. L'objectif de WUPERR est de minimiser la baisse de performance sur des tâches plus anciennes lorsque le modèle est entraîné sur une nouvelle tâche (c'est-à-dire un nouvel hôpital). WUPERR tente d'atteindre cet objectif grâce à la consolidation des paramètres de réseau importants pour modéliser la prédiction sur les tâches précédentes (via un schéma de régularisation de poids ciblé) et la relecture de l'expérience épisodique (en conservant des exemples de représentations de données rencontrées lors de la formation précédente et en revisitant périodiquement ces exemples lors de la ré-formation) . La figure 1 montre le diagramme schématique de l'algorithme WUPERR.

Soit N, J, K le nombre de paramètres du réseau de neurones, le nombre d'époques d'entraînement et le nombre total de tâches, respectivement. Au temps d'entraînement de la tâche k, la perte \(L(j;\theta )\) calculée à l'époque j est la suivante :

où \(L_{CE}(j;\theta )\) correspond à la perte de classification d'entropie croisée, \(\theta _{n}^{k}(j-1)\) correspond au n-ième paramètre du réseau neuronal de l'époque précédente, \(I_{n}^{k}(j-1)\) est une approximation de l'information de Fisher (inverse de l'incertitude) associée au paramètre \(\theta _{n}\) pendant la tâche k et l'époque \(j-1\). L'information approximative de Fisher correspondant au paramètre \(\theta _{n}\) pendant la tâche k et l'époque j est calculée comme suit :

Notez que l'amplitude du gradient correspond au degré de pente de la surface de perte autour d'un point dans l'espace des paramètres, qui à son tour fournit une mesure du gain d'informations. Pour la tâche \(k (k = 2,\ldots , K)\), \(I_n^k\) est initialisé comme \(max (I_n^1,\ldots , I_n^{k-1})\).

Nous avons utilisé l'optimisation bayésienne pour définir le paramètre de régularisation de la fonction de coût (Eq. (1)) et le paramètre de moyenne mobile d'estimation de l'incertitude (Eq. (2)), ce qui a donné les valeurs optimales de \(\gamma =0,99\) et \( \bêta =0,80\), respectivement.

A noter qu'après la tâche 1, les paramètres correspondant à la première couche du réseau de neurones sont figés. De plus, après l'achèvement de la formation sur chaque tâche k, les représentations cachées (\(h_1^k\); sortie de la première couche du réseau de neurones) correspondant à un échantillon aléatoire de patients de l'hôpital-k sont stockées. À partir de la tâche 2, nous affinons le réseau de neurones (à l'exception de la première couche) avec les données de la nouvelle cohorte de patients (Hospital-k) et les représentations cachées stockées à partir des tâches précédentes. Notez que, empiriquement, le gel des poids de la couche 1 a eu un impact négligeable sur les performances du modèle, car le réentraînement du modèle affecte principalement les paramètres de la couche supérieure (voir Fig. S13 supplémentaire).

Les performances de l'algorithme WUPERR ont été comparées à quatre modèles de référence, répertoriés ci-dessous :

Formation spécifique au site : Dans cette approche, nous avons formé le modèle de manière isolée sur chaque site hospitalier où un nouveau modèle est formé sur chaque tâche indépendamment.

Apprentissage par transfert : l'apprentissage par transfert suppose que les tâches source et cible sont dérivées du même espace de caractéristiques, ce qui fait que le transfert des connaissances des tâches précédentes peut accélérer la procédure d'apprentissage sur de nouvelles tâches et ainsi améliorer les performances du modèle. Dans cette approche, les paramètres du réseau de neurones après la formation sur la tâche k-1, ont été transférés à la tâche k et ont été affinés à l'aide des données de la tâche k.

Transfert d'apprentissage-gel : dans cette approche, la première couche du réseau neuronal a été gelée après l'entraînement sur la tâche 1. Les paramètres du réseau neuronal après l'entraînement sur la tâche k-1 ont été transférés vers la tâche k et ont été affinés ( toutes les couches sauf la première couche) en utilisant les données de la tâche k.

Elastic weight consolidation (EWC)33 : Cette approche s'appuie sur des termes de régularisation pour éviter les oublis. EWC protège les performances du réseau neuronal sur les anciennes tâches en ralentissant le processus d'apprentissage sur les poids sélectionnés et en restant dans une région correspondant à une erreur inférieure pour les tâches précédentes tout en apprenant une nouvelle tâche. Pour identifier les pondérations qui contiennent plus d'informations, l'EWC s'appuie sur une matrice d'informations sur les pêcheurs. EWC implémente la somme des pénalités quadratiques sur les tâches déjà vues pour éviter d'oublier dans les DNN.

Réponse de représentation épisodique (ERR) : dans ERR, nous utilisons des représentations des données des tâches précédentes en plus des données du courant pour affiner un modèle. La figure supplémentaire S13 montre la norme Frobenius par couche des changements dans nos poids de réseau, alors que la formation se poursuivait de la tâche 1 à la tâche 4. Nous avons observé les plus grands changements dans les poids du réseau au niveau des couches plus profondes, ce qui peut suggérer que ces couches sont plus importantes pour apprendre une nouvelle tâche. par conséquent, il a été observé que le gel des poids au sein de la première couche réseau avait peu d'effet sur la capacité du réseau à s'adapter à un nouvel ensemble de données. Cela nous a permis d'utiliser la première couche (après la formation sur la tâche 1) comme réseau d'encodage pour obtenir des représentations pour les couches supérieures du réseau. À partir de la tâche 2, nous avons utilisé ces représentations de données d'entrée sur chaque nouveau site, conjointement avec la représentation des données des sites précédents, pour former le modèle. Cette dernière (c'est-à-dire la relecture des représentations de données des tâches précédentes) a permis au réseau de se souvenir des tâches plus anciennes tout en apprenant à partir d'un nouvel ensemble de données.

Le modèle de prédiction était un réseau de neurones entièrement connecté à quatre couches (deux couches cachées), avec des fonctions d'activation d'unités linéaires rectifiées (ReLU). Pour la formation, l'optimiseur Adam avec un taux d'apprentissage de 1e-3 a été utilisé. Les différents paramètres et hyperparamètres d'architecture de réseau ont été répertoriés dans le tableau supplémentaire S2. Une optimisation bayésienne a été effectuée (en utilisant la cohorte de développement de la tâche 1) pour obtenir les hyperparamètres optimaux.

Sur chaque site, nous avons divisé l'ensemble de données de tâches à 80-20 % pour la formation et les tests de modèles, respectivement. Dans chaque itération de la formation, nous avons combiné les nouvelles représentations de données de tâche (c'est-à-dire les sorties de données de formation de la première couche réseau) avec des représentations de données sélectionnées au hasard à partir de tâches précédentes. Dans l'ensemble des quatre ensembles de données, une validation croisée décuple a été utilisée à des fins de formation et de test. Dans la cohorte de septicémie, l'ensemble de formation Hospital-A a été standardisé en appliquant d'abord des transformations de normalisation, puis en soustrayant la moyenne et en divisant par l'écart type. Ensuite, tous les ensembles de données restants dans la cohorte de septicémie (hôpitaux B, C et D) ont été normalisés en utilisant exactement les mêmes transformations utilisées dans les données de formation.

WUPERR a été comparé à plusieurs méthodes d'apprentissage continu de base pour prédire la septicémie dans quatre hôpitaux sur trois paramètres, dont l'ASCroc, la valeur prédictive positive et la sensibilité. Étant donné que les taux d'incidence du sepsis variaient selon les différents sites de soins de santé, nous rapportons également la performance du modèle en utilisant la métrique de valeur prédictive positive, à un seuil correspondant à la sensibilité de 80 % sur la tâche 1. De plus, au moment de l'évaluation (sur les tests données) sur un site donné, le modèle a été évalué sur toutes les cohortes hospitalières. Il convient de noter qu'un style de ligne solide (dans les Figs. 2, 3 et le matériel supplémentaire Figs. S4 à S12) est utilisé pour représenter un site hospitalier dont les données de formation ont déjà été vues par le modèle alors qu'une ligne pointillée indique que le modèle n'a pas encore été entraîné sur le site hospitalier correspondant. Par exemple, dans la Fig. 2, étant donné que le modèle est d'abord formé sur les données de l'hôpital A, les performances du modèle sur cet ensemble de données après un apprentissage continu sur tous les hôpitaux suivants sont affichées en trait plein pour signifier que le modèle avait déjà vu cette cohorte de patients dans le passé. Le prétraitement des données a été effectué à l'aide de Numpy52 et les modèles ont été implémentés à l'aide de TensorFlow53.

Des exemples d'ensembles de données analysés dans la présente étude sont disponibles via le site Web PhysioNet Challenge 2019 (https://physionet.org/content/challenge2019/) et le référentiel WUPERR_CLP (https://github.com/NematiLab/WUPERR_CLP). Pour plus d'informations, veuillez contacter l'auteur correspondant.

Le code utilisé pour former et valider le modèle sera mis à disposition sur https://github.com/NematiLab/WUPERR_CLP.

Yu, K.-H., Beam, AL & Kohane, IS L'intelligence artificielle dans les soins de santé. Nat. Biomédical. Ing. 2, 719–731. https://doi.org/10.1038/s41551-018-0305-z (2018).

Article PubMed Google Scholar

Topol, EJ Médecine performante : la convergence de l'intelligence humaine et artificielle. Nat. Méd. 25, 44–56. https://doi.org/10.1038/s41591-018-0300-7 (2019).

Article CAS PubMed Google Scholar

Lee, CS & Lee, AY Applications cliniques de l'apprentissage automatique en apprentissage continu. Chiffre Lancette. Santé 2, e279–e281. https://doi.org/10.1016/S2589-7500(20)30102-3 (2020).

Article PubMed PubMed Central Google Scholar

Tyler, NS et al. Un système d'aide à la décision d'intelligence artificielle pour la gestion du diabète de type 1. Nat. Métab. 2, 612–619. https://doi.org/10.1038/s42255-020-0212-y (2020).

Article PubMed PubMed Central Google Scholar

Zhou, Y., Wang, F., Tang, J., Nussinov, R. & Cheng, F. L'intelligence artificielle dans la réutilisation des médicaments COVID-19. Chiffre Lancette. Santéhttps://doi.org/10.1016/S2589-7500(20)30192-8 (2020).

Article PubMed PubMed Central Google Scholar

McKinney, SM et al. Évaluation internationale d'un système d'IA pour le dépistage du cancer du sein. Nature 577, 89–94. https://doi.org/10.1038/s41586-019-1799-6 (2020).

Article ADS CAS PubMed Google Scholar

Abràmoff, MD et al. Amélioration de la détection automatisée de la rétinopathie diabétique sur un ensemble de données accessible au public grâce à l'intégration de l'apprentissage en profondeur. Enquête Ophtalmol. Vis. Sci. 57, 5200–5206. https://doi.org/10.1167/iovs.16-19964 (2016).

Article Google Scholar

De Fauw, J. et al. Apprentissage en profondeur cliniquement applicable pour le diagnostic et l'orientation des maladies rétiniennes. Nat. Méd. 24, 1342–1350. https://doi.org/10.1038/s41591-018-0107-6 (2018).

Article CAS PubMed Google Scholar

Esteva, A. et al. Classification au niveau dermatologique du cancer de la peau avec des réseaux de neurones profonds. Nature 542, 115–118. https://doi.org/10.1038/nature21056 (2017).

Article ADS CAS PubMed PubMed Central Google Scholar

Fleuren, LM et al. Apprentissage automatique pour la prédiction de la septicémie : une revue systématique et une méta-analyse de la précision des tests de diagnostic. Soins Intensifs Méd. 46, 383–400. https://doi.org/10.1007/s00134-019-05872-y (2020).

Article PubMed PubMed Central Google Scholar

Yim, J. et al. Prédire la conversion à la dégénérescence maculaire liée à l'âge humide à l'aide de l'apprentissage en profondeur. Nat. Méd. 26, 892–899. https://doi.org/10.1038/s41591-020-0867-7 (2020).

Article CAS PubMed Google Scholar

Kim, H., Goo, JM, Lee, KH, Kim, YT et Park, CM Modèle d'apprentissage profond basé sur la TDM préopératoire pour prédire la survie sans maladie chez les patients atteints d'adénocarcinomes pulmonaires. Radiologie 296, 216–224. https://doi.org/10.1148/radiol.2020192764 (2020).

Article PubMed Google Scholar

Wang, P. et al. Le système de détection automatique en temps réel augmente les taux de détection des polypes et des adénomes coloscopiques : une étude prospective randomisée contrôlée. Intestin 68, 1813–1819. https://doi.org/10.1136/gutjnl-2018-317500 (2019).

Article PubMed Google Scholar

Wang, F., Casalino, LP et Khullar, D. Apprentissage en profondeur dans la promesse de la médecine, les progrès et les défis. Stagiaire JAMA. Méd. 179, 293–294. https://doi.org/10.1001/jamainternmed.2018.7117 (2019).

Article PubMed Google Scholar

Ching, T. et al. Opportunités et obstacles à l'apprentissage en profondeur en biologie et en médecine. JR Soc. Interface 15, 20170387. https://doi.org/10.1098/rsif.2017.0387 (2018).

Article PubMed PubMed Central Google Scholar

Une enquête sur le deep learning en médecine : pourquoi, comment et quand ? | Lecteur amélioré Elsevier, https://doi.org/10.1016/j.inffus.2020.09.006.

Shokri, R. & Shmatikov, V. Apprentissage en profondeur préservant la confidentialité. Dans Actes de la 22e conférence ACM SIGSAC sur la sécurité informatique et des communications, CCS '15, 1310–1321, https://doi.org/10.1145/2810103.2813687 (Association for Computing Machinery, New York, NY, États-Unis, 2015).

Beam, AL & Kohane, IS Big data et apprentissage automatique dans les soins de santé. JAMA 319, 1317–1318. https://doi.org/10.1001/jama.2017.18391 (2018).

Article PubMed Google Scholar

Wong, A. et al. Validation externe d'un modèle exclusif de prédiction du sepsis largement mis en œuvre chez les patients hospitalisés. Stagiaire JAMA. Méd. 181, 1065-1070 (2021).

Article Google Scholar

Wong, A. et al. Quantification des alertes du modèle de septicémie dans 24 hôpitaux américains avant et pendant la pandémie de COVID-19. Réseau JAMA. Ouvert 4, e2135286 (2021).

Article Google Scholar

Wardi, G. et al. Prédire la progression du choc septique dans le service des urgences à l'aide d'un algorithme d'apprentissage automatique généralisable en externe. Anne. Urgence Med.https://doi.org/10.1016/j.annemergmed.2020.11.007 (2021).

Article PubMed PubMed Central Google Scholar

Titulaire, AL, Shashikumar, SP, Wardi, G., Buchman, TG & Nemati, S. Un outil basé sur les données optimisé localement pour prédire l'utilisation des vasopresseurs associés à la septicémie en USI. Crit. Soin Méd. 49, e1196–e1205 (2021).

Google Scholar PubMed

Santé, C.f. D. un. R. Intelligence artificielle et apprentissage automatique dans les logiciels en tant que dispositifs médicaux. FDA (FDA, 2021)

Vokinger, KN, Feuerriegel, S. & Kesselheim, AS Apprentissage continu dans les dispositifs médicaux : plan d'action de la FDA et au-delà. Chiffre Lancette. Santé 3, e337–e338 (2021).

Article Google Scholar

Rieke, N. et al. L'avenir de la santé numérique avec l'apprentissage fédéré. npj Chiffre. Méd. 3, 1–7. https://doi.org/10.1038/s41746-020-00323-1 (2020).

Article Google Scholar

Kaissis, G. et al. Confidentialité de bout en bout préservant l'apprentissage en profondeur sur l'imagerie médicale multi-institutionnelle. Nat. Mach. Renseignement. 3, 473–484. https://doi.org/10.1038/s42256-021-00337-8 (2021).

Article Google Scholar

Warnat-Herresthal, S. et al. Swarm Learning pour un apprentissage automatique clinique décentralisé et confidentiel. Nature 594, 265–270. https://doi.org/10.1038/s41586-021-03583-3 (2021).

Article ADS CAS PubMed PubMed Central Google Scholar

Price, WN & Cohen, IG La confidentialité à l'ère des mégadonnées médicales. Nat. Méd. 25, 37–43. https://doi.org/10.1038/s41591-018-0272-7 (2019).

Article CAS PubMed PubMed Central Google Scholar

Zenke, F., Poole, B. & Ganguli, S. Apprentissage continu grâce à l'intelligence synaptique. Dans Actes de la 34e Conférence internationale sur l'apprentissage automatique, 3987–3995 (PMLR, 2017). ISSN : 2640-3498.

van de Ven, GM & Tolias, AS Trois scénarios pour un apprentissage continu. arXiv:1904.07734 [cs, stat] (2019).

Goodfellow, IJ, Mirza, M., Xiao, D., Courville, A. & Bengio, Y. Une enquête empirique sur l'oubli catastrophique dans les réseaux de neurones à gradient. arXiv:1312.6211 [cs, stat] (2015).

Kiyasseh, D., Zhu, T. & Clifton, D. Un cadre d'apprentissage clinique en profondeur pour apprendre continuellement des signaux cardiaques à travers les maladies, le temps, les modalités et les institutions. Nat. Commun. 12, 4221. https://doi.org/10.1038/s41467-021-24483-0 (2021).

Article ADS CAS PubMed PubMed Central Google Scholar

Kirkpatrick, J. et al. Surmonter l'oubli catastrophique dans les réseaux de neurones. arXiv:1612.00796 [cs, stat] (2017).

Rebuffi, S.-A., Kolesnikov, A., Sperl, G. & Lampert, CH iCaRL : classificateur incrémentiel et apprentissage des représentations. arXiv:1611.07725 [cs, stat] (2017).

Rolnick, D., Ahuja, A., Schwarz, J., Lillicrap, TP et Wayne, G. Experience Replay for Continual Learning. arXiv:1811.11682 [cs, stat] (2019).

Lopez-Paz, D. & Ranzato, MA Mémoire épisodique dégradée pour un apprentissage continu. Dans Advances in Neural Information Processing Systems, Vol. 30 (Curran Associates, Inc., 2017).

Shin, H., Lee, JK, Kim, J. & Kim, J. Apprentissage continu avec Deep Generative Replay. arXiv:1705.08690 [cs] (2017).

Évaluation des critères cliniques du sepsis : pour les troisièmes définitions consensuelles internationales du sepsis et du choc septique (Sepsis-3) | Médecine de soins intensifs | JAMA | Réseau JAMA.

Rajkomar, A., Dean, J. & Kohane, I. Apprentissage automatique en médecine. N. Engl. J. Med. 380, 1347–1358. https://doi.org/10.1056/NEJMra1814259 (2019).

Article PubMed Google Scholar

Norgeot, B., Glicksberg, BS & Butte, AJ Un appel à l'apprentissage en profondeur des soins de santé. Nat. Méd. 25, 14–15. https://doi.org/10.1038/s41591-018-0320-3 (2019).

Article CAS PubMed Google Scholar

Miotto, R., Wang, F., Wang, S., Jiang, X. & Dudley, JT Apprentissage en profondeur pour les soins de santé : examen, opportunités et défis. Bref. Bioinformer. 19, 1236-1246. https://doi.org/10.1093/bib/bbx044 (2018).

Article PubMed Google Scholar

Xu, J. et al. Apprentissage fédéré pour l'informatique de la santé. J. Santéc. Informer. Rés. 5, 1–19. https://doi.org/10.1007/s41666-020-00082-4 (2021).

Article PubMed Google Scholar

Sheller, MJ et al. Apprentissage fédéré en médecine : faciliter les collaborations multi-institutionnelles sans partager les données des patients. Sci. Rep. 10, 12598. https://doi.org/10.1038/s41598-020-69250-1 (2020).

Article ADS CAS PubMed PubMed Central Google Scholar

Huang, L. et al. Le regroupement des patients améliore l'efficacité de l'apprentissage automatique fédéré pour prédire la mortalité et la durée d'hospitalisation à l'aide de dossiers médicaux électroniques distribués. J. Biomed. Informer. 99, 103291. https://doi.org/10.1016/j.jbi.2019.103291 (2019).

Article PubMed Google Scholar

Qayyum, A., Ahmad, K., Ahsan, MA, Al-Fuqaha, A. & Qadir, J. Apprentissage fédéré collaboratif pour les soins de santé : diagnostic multimodal de la COVID-19 à la périphérie. arXiv:2101.07511 [cs] (2021).

Wong, A. et al. Quantification des alertes du modèle de septicémie dans 24 hôpitaux américains avant et pendant la pandémie de COVID-19. Réseau JAMA. Ouvrez 4, e2135286. https://doi.org/10.1001/jamanetworkopen.2021.35286 (2021).

Article PubMed PubMed Central Google Scholar

Shashikumar, SP, Wardi, G., Malhotra, A. & Nemati, S. L'algorithme de prédiction de la septicémie par intelligence artificielle apprend à dire "je ne sais pas". Technologie. Rép. (2021). https://doi.org/10.1101/2021.05.06.21256764.

Hung, C.-Y. et coll. Compacter, cueillir et cultiver pour un apprentissage continu inoubliable. Dans Advances in Neural Information Processing Systems, Vol. 32 (Curran Associates, Inc., 2019).

Li, X., Zhou, Y., Wu, T., Socher, R. & Xiong, C. Apprendre à grandir : un cadre d'apprentissage structurel continu pour surmonter l'oubli catastrophique. Dans Actes de la 36e Conférence internationale sur l'apprentissage automatique, 3925–3934 (PMLR, 2019). ISSN : 2640-3498.

Johnson, A. et al. MIMIC-IV, https://doi.org/10.13026/S6N6-XD98. Numéro de version : 1.0 Type : jeu de données.

Singer, M. et al. Les troisièmes définitions consensuelles internationales du sepsis et du choc septique (septicémie-3). JAMA 315, 801–810. https://doi.org/10.1001/jama.2016.0287 (2016).

Article CAS PubMed PubMed Central Google Scholar

Harris, CR et al. Programmation de tableaux avec NumPy. Nature 585, 357–362 (2020).

Article ADS CAS Google Scholar

Abadi, M. et al. Tensorflow : un système d'apprentissage automatique à grande échelle. Dans OSDI Vol. 16, 265-283 (2016).

Télécharger les références

Le Dr Nemati est financé par les National Institutes of Health (\(\#\)R01LM013998 et \(\#\)R35GM143121) et la Fondation Gordon et Betty Moore (\(\#\)GBMF9052). Le Dr Holder est soutenu par le National Institute of General Medical Sciences des National Institutes of Health (\(\#\)K23GM37182) et par Baxter International. Les ressources informatiques pour les expériences rapportées ont été rendues possibles grâce à une généreuse subvention de crédit cloud d'Amazon, dans le cadre d'un AWS Research Award au Dr Shashikumar. Nous tenons à remercier le Dr Gari D. Clifford et le Dr Lucila Ohno-Machado pour des discussions perspicaces liées à l'analyse de la confidentialité.

Division d'informatique biomédicale, Université de Californie à San Diego, San Diego, États-Unis

Fatemeh Amrollahi, Supreeth P. Shashikumar & Shamim Nemati

Division de la médecine pulmonaire, des soins intensifs, des allergies et du sommeil, École de médecine de l'Université Emory, Atlanta, États-Unis

André L. Holder

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

FA, SPS et SN ont participé à la conception originale et à la conception de l'œuvre. FA a développé les architectures de réseau, mené les expériences, SPS et SN ont examiné les expériences et contribué à l'interprétation des résultats. ALH a apporté son expertise clinique et a contribué à l'interprétation des résultats et à la rédaction finale. FA a préparé tous les chiffres. FA, SPS, ALH et SN ont rédigé et édité le manuscrit.

Correspondance à Shamim Nemati.

Les auteurs ne déclarent aucun intérêt concurrent.

Springer Nature reste neutre en ce qui concerne les revendications juridictionnelles dans les cartes publiées et les affiliations institutionnelles.

Libre accès Cet article est sous licence Creative Commons Attribution 4.0 International, qui permet l'utilisation, le partage, l'adaptation, la distribution et la reproduction sur n'importe quel support ou format, à condition que vous accordiez le crédit approprié à l'auteur ou aux auteurs originaux et à la source, fournir un lien vers la licence Creative Commons et indiquer si des modifications ont été apportées. Les images ou tout autre matériel de tiers dans cet article sont inclus dans la licence Creative Commons de l'article, sauf indication contraire dans une ligne de crédit au matériel. Si le matériel n'est pas inclus dans la licence Creative Commons de l'article et que votre utilisation prévue n'est pas autorisée par la réglementation légale ou dépasse l'utilisation autorisée, vous devrez obtenir l'autorisation directement du détenteur des droits d'auteur. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by/4.0/.

Réimpressions et autorisations

Amrollahi, F., Shashikumar, SP, Holder, AL et al. Tirer parti des données cliniques des établissements de santé pour un apprentissage continu des modèles de risque prédictif. Sci Rep 12, 8380 (2022). https://doi.org/10.1038/s41598-022-12497-7

Télécharger la citation

Reçu : 13 janvier 2022

Accepté : 11 mai 2022

Publié: 19 mai 2022

DOI : https://doi.org/10.1038/s41598-022-12497-7

Toute personne avec qui vous partagez le lien suivant pourra lire ce contenu :

Désolé, aucun lien partageable n'est actuellement disponible pour cet article.

Fourni par l'initiative de partage de contenu Springer Nature SharedIt

En soumettant un commentaire, vous acceptez de respecter nos conditions d'utilisation et nos directives communautaires. Si vous trouvez quelque chose d'abusif ou qui ne respecte pas nos conditions ou directives, veuillez le signaler comme inapproprié.

PARTAGER