Comment POSOS utilise l’IA pour aider les professionnels de santé dans leur prise de décision

Vendredi 26 juin 2020

À l’heure d’Internet et de l’immédiateté de l’information, on ne soupçonne pas que la recherche d’informations sur les médicaments puisse encore parfois prendre des heures, voire des jours, pour les professionnels de santé, qu’ils soient médecins ou pharmaciens...

À l’heure d’Internet et de l’immédiateté de l’information, on ne soupçonne pas que la recherche d’informations sur les médicaments puisse encore parfois prendre des heures, voire des jours, pour les professionnels de santé, qu’ils soient médecins ou pharmaciens.

C’est pourtant bien la réalité quotidienne des quelques 1 175 000 professionnels de santé que l’on compte aujourd’hui en France, pour qui la recherche d’une information peut parfois s’apparenter à un véritable parcours du combattant. Les sources d’informations dont ils disposent bien que riches et nombreuses restent difficilement exploitables, ce qui entrave bien souvent l’ordonnancement et la hiérarchisation des données. Face à ces difficultés d’accès rapide à une information fiable, les professionnels de santé se fient davantage à leur expérience personnelle qu’aux données disponibles dans la littérature scientifique.

Comment alors aider les professionnels de santé à avoir accès rapidement à des informations fiables et pertinentes et les aider dans leur démarche de praticien ?

C’est ce que notre startup, POSOS, fondée en 2017 à Amiens, propose de résoudre en développant une technologie, capable de comprendre toute question posée sur un médicament et d’automatiquement :

  1. Identifier le type d’informations recherchées et le contexte de la question,
  2. Sélectionner à partir de sources d’informations fiables les documents pertinents,
  3. Extraire de ces documents pertinents les passages permettant de répondre à la question posée.

La technologie que nous développons fait appel aux nouvelles méthodes de traitement du langage naturel (plus connu sous le nom de NLP pour Natural Language Processing). Chacune des étapes décrites précédemment est associée à un pan de recherche important en NLP. La première étape consistant à détecter le type d’information recherchée est un problème de classification et de de détection d’entités nommées (ou NER pour Named Entity Recognition). La deuxième étape consistant à sélectionner une liste de documents pertinents fait appel à la théorie de la recherche d’informations (ou IR pour Information Retrieval). Enfin, la dernière étape, consistant à retrouver les passages intéressants dans ces documents, est associée à la compréhension automatique de lecture (ou MRC pour Machine Reading Comprehension). Ces différents domaines ont tous été révolutionnés ces dernières années par l’application croissante des réseaux de neurones profonds.

Prenons, par exemple, le domaine de la recherche d’informations. Pendant longtemps, les systèmes classiques de recherche d’informations reposaient sur une mise en correspondance des mots clés de la requête et des documents du corpus. De tels systèmes ne prenaient néanmoins pas en compte les informations contextuelles et la proximité sémantique des mots. Ainsi, un système de requête d’informations efficace devrait être en mesure de mettre en lien le terme « antibiotique » avec des noms de molécules comme « pénicilline », « céphalosporines »… Des documents faisant apparaître fréquemment ces noms de molécules sont ainsi très probablement pertinents vis-à-vis d’une requête sur les antibiotiques, bien qu’ils ne fassent pas apparaître explicitement le mot-clé « antibiotique ». C’est sur ce point que l’application des réseaux de neurones a permis d’obtenir des progrès importants en recherche d’informations. Les réseaux neuronaux ont en effet permis d’obtenir des représentations vectorielles continues denses des mots (plus connues sous le nom de word embeddings) en étant entrainés à partir de chaque terme à déduire les mots qui l’environnent. Les poids des couches intermédiaires de tels réseaux permettent d’obtenir cette représentation vectorielle continue des mots. L’idée sous-jacente de ce modèle repose sur la fait que deux termes ayant un contexte semblable seront considérés comme proches d’un point de vue vectoriel. Grâce à cette modélisation vectorielle des mots, il est de même possible d’obtenir des représentations de textes entiers, pour pouvoir ainsi comparer d’un point de vue vectoriel les requêtes et les documents du corpus.

Néanmoins, les méthodes de NLP peuvent présenter certaines limites pour l’obtention d’un système de requêtes généralistes. Ces méthodes sont bien souvent limitées à une langue et à un domaine spécifique. Nous avons donc développé nos propres word embeddings en anglais et en français en utilisant des corpus biomédicaux et nous nous préparons à répliquer notre plateforme dans d’autres langues pour nous ouvrir à l’international. Nous travaillons actuellement sur une optimisation neuronale de notre système de recherche d’informations, afin de mieux prendre en compte l’information sémantique des mots.

L’outil que nous développons chez POSOS sera bénéfique aussi bien pour les professionnels de santé, que pour les patients. Il permettra en effet à l’avenir aux praticiens de disposer d’un outil fiable les amenant à une prise de décision éclairée lors de la prescription du traitement. Le patient pourra de même être mieux soigné, permettant ainsi de réduire les risques liés à un usage inapproprié de médicament, causant encore aujourd’hui près de 200.000 décès par an en Europe.

S'inscrire gratuitement

Des réponses rapides et contextualisées à vos questions de prescription