Le logiciel non intellectuel peut comprendre les rencontres, convertir entre le mandarin et le swahili et vaincre les meilleurs joueurs individuels du monde dans ce type de jeux vidéo comme le go, les échecs et le poker. Ce qu’il ne peut vraiment pas faire en général, c’est décrire seul. L’IA est un logiciel qui peut étudier les informations ou l’expérience pour créer des prédictions. Un programmeur informatique spécifie vos données d’où le programme doit découvrir et fournit des articles une collection de recommandations, connue sous le nom de formule d’algorithme, sur la façon dont le programme logiciel doit faire cela, mais n’influence pas ce qu’il doit vraiment comprendre. Et c’est ce qui donne à l’IA une grande partie de son énergie: elle pourrait découvrir des relations dans les données qui seraient plus compliquées ou nuancées qu’un homme ne le trouverait. Mais cette complexité signifie également que la cause pour laquelle le logiciel parvient à un résumé particulier est généralement généralement opaque, allant même à leurs propres concepteurs. Pour les créateurs d’applications souhaitant proposer des méthodes d’IA, organisation de séminaire cette clarté insuffisante peut être préjudiciable à l’entreprise. Il est difficile pour les êtres humains de faire confiance à un processus qu’ils ne peuvent pas comprendre – et sans y croire, les entreprises ne rapporteront pas beaucoup d’argent pour les logiciels d’IA. Cela est particulièrement valable dans des domaines tels que les soins de santé, le financement et les forces de police, dans lesquels les conséquences de tout mauvais conseil ont tendance à être plus importantes que, disons, ce point que Netflix pensait que vous pourriez éventuellement apprécier de regarder The Hangover Component III. Le contrôle peut également inciter les entreprises à demander une IA beaucoup plus explicable. Aux États-Unis, les lignes directrices légales sur la couverture d’assurance exigent que les organisations soient en mesure d’expliquer clairement pourquoi elles ont refusé une assurance individuelle ou leur ont facturé une prime plus élevée que leurs voisins. Dans les pays européens, le règlement normal Info Défense, entré en vigueur en mai, accorde aux habitants de l’UE un «droit à un examen individuel» associé à une sélection algorithmique ayant un effet sur eux. Lorsque l’institution bancaire rejette le logiciel de prêt, il ne peut pas simplement vous dire que le PC a déclaré que le personnel de l’institution financière n’avait pas de pouvoir afin d’évaluer la procédure employée par l’appareil ou d’effectuer une évaluation distincte. David Kenny, qui était jusque plus tôt ce mois-ci l’ancien vice-président de Global Enterprise Machines Corp. pour les fournisseurs de services mentaux, déclare que lorsque IBM a interrogé 5000 entreprises sur l’utilisation de l’IA, 82% ont déclaré qu’elles voulaient accomplir cela, mais les deux tiers de ces entreprises a expliqué que ceux-ci n’étaient pas disposés à procéder, avec une explication insuffisante qui constituait le principal obstacle à la reconnaissance. Au total, 60% des dirigeants craignent maintenant que les fonctions internes de l’IA soient trop énigmatiques, contre 29% en 2016. «Ils disent:« Si je vais faire un choix important tout autour de la souscription des chances ou de la sécurité de base des repas, je veux beaucoup plus explicabilité », affirme Kenny, qui est maintenant le principal officier de police de gestion de Nielsen Holdings Plc. Répondant, les fournisseurs d’applications et les intégrateurs de solutions informatiques ont commencé par vanter une capacité remarquable à présenter aux clients des idées sur la façon dont les applications IA se sentent. Lors de la convention sur les techniques de digestion des informations neuronales à Montréal au début du mois de décembre, l’espace de vente d’IBM a annoncé que son application de capacité d’apprentissage artificiel structurée dans le cloud offrait une «explicabilité». L’application d’IBM peut indiquer à un client les 3 à 5 variables que l’algorithme a le plus pesé pour prendre une décision. Il pourrait suivre la lignée des données Web, montrant aux acheteurs d’où proviennent les informations utilisées avec la formule de l’algorithme. Ce qui peut être vital pour trouver des préjugés, affirme Kenny. IBM propose même des instruments qui aideront les organisations à éliminer les zones de données qui pourraient être discriminatoires comme la race et d’autres points d’information pouvant être étroitement liés à ces variables, y compris les règles postales. Quantum Dark, une organisation de conseil qui peut aider les entreprises à concevoir et à styliser des systèmes pour analyser les informations, a commercialisé son travail pour développer une IA explicable dans la convention, il y avait de nombreux rapports d’école sur le sujet. Accenture Plc a commencé à commercialiser et à publier des «ressources d’équité», qui aideront les organisations à détecter et à corriger les préjugés au sein de leurs techniques d’IA, tout comme la concurrence Deloitte LLC et KPMG LLC. Google, composante d’Alphabet Inc., a commencé à fournir des méthodes à tous ceux qui utilisent ses ensembles de règles d’apprentissage automatique pour mieux comprendre leurs procédures de détermination. En juin, Microsoft Corp a acquis Bonsai, une start-up californienne qui garantissait de développer une IA explicable. Kyndi, une start-up de l’IA de San Mateo, en Californie, a même déposé la marque «Explainable AI» pour aider à proposer son logiciel informatique de compréhension des machines.