Microsoft va cesser de vendre la technologie de lecture des émotions et restreindre l’accès aux outils de reconnaissance faciale

Microsoft va cesser de vendre la technologie de lecture des émotions et restreindre l’accès aux outils de reconnaissance faciale

Microsoft a confirmé qu’il retirerait les logiciels qui évaluent l’état émotionnel d’une personne en traitant son image. De plus, la société limitera également l’accès à sa technologie de reconnaissance faciale.

Suivant l’exemple de Google, Microsoft met fin à la vente de la technologie de lecture des émotions. La société limitera également l’accès « sans restriction » à la technologie de reconnaissance faciale. Les clients existants n’auront qu’un an avant de perdre l’accès à Azure Face, une suite d’outils d’intelligence artificielle (IA) qui tentent de déterminer les émotions, le sexe, l’âge, le sourire, les poils du visage, les cheveux et le maquillage. Parlant de développement , Sarah Bird, chef de produit principal, Microsoft Azure AI Group, a déclaré :

Ces efforts ont soulevé d’importantes questions sur la vie privée, l’absence de consensus sur la définition de «l’émotion» et l’incapacité de généraliser la relation entre l’expression faciale et l’état émotionnel dans les cas d’utilisation, les régions et les données démographiques.

Microsoft chercherait à savoir si les systèmes de reconnaissance des émotions sont basés sur la science. Ce que Microsoft voulait dire n’est pas immédiatement clair. Cependant, il est possible que l’entreprise n’ait pas réussi à perfectionner les algorithmes qui devinent l’état émotionnel d’une personne à partir de l’image. De plus, l’entreprise peut renforcer son dossier contre les nouvelles règles et réglementations sur l’utilisation de ces outils.

En plus de mettre fin à la vente de la technologie de lecture des émotions, Microsoft met également fin à l’accès illimité à sa technologie de reconnaissance faciale. La société a indiqué que les clients utilisant ses technologies de reconnaissance faciale doivent obtenir une autorisation préalable. De toute évidence, les clients de Microsoft doivent avoir des obligations contractuelles. Cependant, il n’est pas clair si Microsoft impose des restrictions supplémentaires ou demande simplement aux entreprises de signer une clause de non-responsabilité exonérant Microsoft de toute sanction légale associée à toute utilisation abusive.

Pour l’instant, Microsoft a simplement demandé à ses clients « d’éviter les situations qui violent la vie privée ou où la technologie pourrait échouer ». Un objectif juridiquement douteux évident est l’identification des mineurs. Incidemment, Microsoft n’interdit pas spécifiquement une telle utilisation.

Microsoft impose également certaines restrictions à sa fonction Custom Neural Voice, qui permet aux clients de créer des voix IA basées sur des enregistrements de personnes réelles .

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *