Deepmind était d’abord connue pour ses prouesses au jeu d’AlphaGo. Aujourd’hui, l’entreprise d’intelligence artificielle de Google se fait surtout un nom dans les débats éthiques liés aux technologies. Un comité indépendant de huit experts reconnus dans le domaine médical, mandaté par Deepmind, s’inquiète en effet de la place grandissante qu’est en train de prendre la société, notamment dans le domaine de la santé avec sa branche DeepMind Health.
Le rapport explique ainsi que « même en dehors de ses liens avec [la maison mère de Google, Alphabet], DeepMind Health pourrait se trouver en position d’exercer un monopole excessif ». Les établissements de santé pourraient théoriquement ne plus pouvoir se passer des services de DeepMind Health une fois qu’ils s’y sont essayés et ce, même s’il n’est plus financièrement ou cliniquement intéressant de poursuivre la relation. La raison tiendrait à des caractéristiques techniques contraignantes, qui empêchent de passer d’un système à un autre facilement.
[...]
Deepmind Health a également très tôt affirmé qu’elle avait créé un comité éthique indépendant pour examiner son travail chaque année. Les membres du panel ne sont pas tenus de signer des accords de non-divulgation et sont en mesure de commander des analyses et des avis externes. La démarche est assez inhabituelle dans le secteur privé mais plutôt utile en termes de communication : cela permet de se faire une place dans le secteur sensible qu’est la santé en offrant à l’opinion des gages de son sérieux.
Malgré ces précautions, DeepMind a aussi fait face dans la pratique à une importante controverse dès 2016, lors de la signature d’un accord avec le NHS pour obtenir des données d’1,6 million de patients britanniques. Les données des patients sont essentielles pour explorer le plein potentiel de l’IA dans les soins de santé, mais la décision de DeepMind Health d’utiliser ces données afin de tester son application médicale Streams a été jugée illégale en juillet dernier par le régulateur des données personnelles britannique.