26.11.2020 Views

EPFZ-Source d'idées neuves

Hier können Sie das Kolumnenbuch vom ETH Präsident Joël Mesot online lesen.

Hier können Sie das Kolumnenbuch vom ETH Präsident Joël Mesot online lesen.

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

EPFZ – Source d’idées neuves

Faire parler

les données

Le flux de données numériques

coule maintenant aussi naturellement

que l’eau de nos robinets.

L’internet des objets couvre le

monde entier. La société IDC estime

que d’ici à 2020 la quantité de données

numériques s’élèvera à 40 zettaoctets.

Soit un nombre avec 21 zéros!

Les données proviennent de nombreuses

sources et sont disponibles

sous différentes formes et qualités:

image, texte, vidéo, fichier audio ou

notes qu’il faut d’abord numériser.

La médecine personnalisée utilise

diverses sources de données – du

fitness tracker aux antécédents médicaux

individuels en passant par le

profil génétique. Mais les données

brutes ont une valeur limitée. Elles

deviennent en effet intéressantes

pour la science, la médecine ou l’économie

numérique une fois qu’elles

ont été préparées pour pouvoir être

traitées à l’aide d’algorithmes. Tout

comme pour la transformation des

matières premières en produits finis,

il existe également un processus de

raffinement en plusieurs étapes pour

les données permettant une nouvelle

compréhension.

Les patients en soins intensifs dans

les hôpitaux sont particulièrement

bien surveillés. Les médecins et le

personnel soignant sont confrontés

à un flot de valeurs mesurées

et d’informations qui doivent être

continuellement observées et interprétées.

Pour déterminer dans quelle

mesure l’intelligence artificielle peut

soutenir ces tâches, l’Hôpital de l’Ile

à Berne et des chercheurs de l’EPFZ

ont développé un système d’alerte

précoce. L’objectif était de prédire

une défaillance circulatoire chez les

patients en soins intensifs jusqu’à huit

heures avant son apparition.

La première étape consistait à filtrer

les incohérences dans l’énorme

quantité de données et à s’assurer

que les données mesurées étaient

comparables. Sur 54 000 dossiers

de patients archivés, 36 000 ont été

analysés et, parmi les 4500 variables,

les 20 plus pertinentes ont été déterminées.

Sur la base de ces données,

les chercheurs ont ensuite utilisé

des méthodes du «machine lear-

33

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!