Le logiciel de l’intelligence synthétique peut identifier les apparences faciales, traduire entre le mandarin et le swahili et battre les meilleurs joueurs du monde à ce genre de jeux comme Go, échecs et poker. Ce qu’il ne peut généralement pas faire, c’est expliquer par lui-même. L’IA est une application qui peut apprendre des détails ou des rencontres pour aider à faire des estimations. Un développeur informatique spécifie les informations par lesquelles le logiciel doit découvrir et blogue une collection de directives, généralement connues sous le nom d’algorithme, concernant la façon dont le logiciel doit faire cela, mais n’influence pas ce qu’il doit vraiment apprendre. Et c’est ce qui donne à l’IA une grande partie de son potentiel: elle pourrait découvrir des contacts à partir des informations qui pourraient être plus compliqués ou nuancés par rapport à ceux d’un individu. Mais cette complexité signifie également que la raison pour laquelle le logiciel atteint un résultat spécifique est souvent largement opaque, allant même à ses propres créateurs. Pour les producteurs de logiciels espérant proposer des systèmes d’IA, ce manque de clarté pourrait être malsain pour les entreprises. Il est difficile pour les gens de faire confiance à une méthode qu’ils ne peuvent pas entièrement comprendre et sans avoir confiance, incentive et séminaire les agences ne rapporteront pas beaucoup d’argent pour les logiciels informatiques d’IA. Cela est particulièrement vrai dans des domaines tels que les soins de santé, le financement et l’application des lois, où les implications de votre horrible suggestion sont nettement plus importantes que, disons, cette fois, Netflix a pensé que vous pourriez avoir du plaisir à regarder The Hangover Portion III. Le contrôle fait également voyager les entreprises pour demander une IA beaucoup plus explicable. Aux États-Unis, la réglementation des régimes d’assurance exige que les entreprises aient la possibilité d’expliquer clairement pourquoi elles ont refusé la protection de quelqu’un ou leur ont facturé un montant supérieur par rapport à leur voisin. En Europe, la législation typique sur la sécurité des détails, qui avait peut-être pris effet en mai, offre aux résidents de l’UE un «droit à l’examen de votre être humain» de toute sélection algorithmique les concernant. Si la banque rejette la demande de prêt, elle ne peut pas simplement vous expliquer l’ordinateur que le travailleur non prêteur a expliqué afin de revoir la méthode utilisée par l’équipement ou d’effectuer une analyse distincte. David Kenny, qui était jusqu’à plus tôt ce mois-ci l’ancien vice-président des fournisseurs intellectuels d’Overseas Company Models Corp., a déclaré que lorsque IBM a interrogé 5 000 entreprises sur l’utilisation de l’IA, 82% ont indiqué qu’elles souhaitaient atteindre cet objectif, mais les deux tiers des les organisations de personnes ont mentionné que ces personnes étaient réticentes à continuer, avec trop peu de position d’explicabilité comme le plus grand obstacle à l’approbation. Au total, 60% des dirigeants expriment maintenant le problème que les travaux intérieurs de l’IA sont extrêmement énigmatiques, contre 29% en 2016. «Ils disent:« Si je dois faire un choix vital tout autour de la souscription des chances ou de la sécurité alimentaire, je voudrais un beaucoup plus d’explicabilité », affirme Kenny, qui est désormais directeur général de Nielsen Holdings Plc. En réponse, les distributeurs de logiciels informatiques et les intégrateurs de techniques informatiques ont commencé à vanter leur capacité à donner aux consommateurs un aperçu de la façon dont les plans d’intelligence artificielle pensent. Lors du séminaire sur les solutions de traitement des informations neuronales à Montréal au début du mois de décembre, la zone de présentation d’IBM a annoncé que son logiciel d’intelligence synthétique dépendant du cloud fournissait une «explicabilité». Le programme logiciel d’IBM peut indiquer à un client les trois à cinq aspects que cette formule d’algorithme a le plus pesés dans son choix. Il peut suivre la lignée des données Web, révélant aux clients d’où proviennent les informations utilisées par l’algorithme. Ce qui peut être vital pour détecter les biais, affirme Kenny. IBM fournit également des outils qui aideront les entreprises à se débarrasser des détails des domaines d’emploi qui peuvent être discriminatoires, tels que la concurrence, ainsi que d’autres informations pouvant être étroitement liées à ces aspects, comme les règles postales. Quantum Black coloured, une organisation de contact qui aide les organisations à concevoir des techniques pour examiner les informations, a promu son travail avec la production d’IA explicable lors de la réunion, il y a eu en fait de nombreuses démonstrations scolaires à leur sujet. Accenture Plc a lancé des «outils d’équité» en matière de publicité et de marketing qui peuvent aider les organisations à reconnaître et à corriger les biais dans leurs règles d’intelligence artificielle, tout comme les concurrents Deloitte LLC et KPMG LLC. Google, qui fait partie d’Alphabet Inc., a commencé à donner des méthodes à tous ceux qui utilisent ses ensembles de règles d’apprentissage unitaire pour mieux comprendre leurs opérations de choix. En juin, Microsoft Corp. a obtenu Bonsai, une start-up Ca qui appelait à construire une IA explicable. Kyndi, une start-up de l’IA de San Mateo, en Californie, a même déposé le terme «IA explicable» pour vous aider à vendre son logiciel de compréhension d’unités.