UTILISATION DES COOKIES : en poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer une navigation personnalisée, des publicités adaptées à vos centres d’intérêts et la réalisation de statistiques. Pour en savoir plus et paramétrer vos cookies, cliquez ici 

Béatrice Delmas-Linel : « Les organisations mondiales doivent s’emparer du sujet de l’intelligence artificielle »

Interviews
Outils
TAILLE DU TEXTE

Les enjeux économiques aux innombrables possibles qui se cachent derrière le secteur de l’intelligence artificielle (IA) semblent prodigieux. Relevant parfois du phantasme, l’IA n’en donne parfois le vertige. Certains pays semblent plus inquiets et plus prompts à établir une réglementation que d’autres. Interrogée par le Monde du Droit, Béatrice Delmas-Linel, Managing Partner d’Osborne Clarke, préconise notamment une vision globale de la régulation dans ce domaine.

Que faut-il avoir à l’esprit avant d’envisager une régulation de l’intelligence artificielle ?

Il faut savoir qu’il existe déjà dans la réglementation, divers textes concernant directement ou indirectement l’intelligence artificielle (IA) et les algorithmes qui la composent. Ainsi la loi de 2016 pour une République Numérique impose à l’Administration d’être totalement transparente lorsqu’elle exécute des traitements algorithmiques. Les mécanismes de décision de l’Administration impactant les usagers doivent respecter ce principe de transparence, principe qui se reflète également dans la réglementation européenne des données personnelles.

Le RGPD introduit en effet un principe général de prohibition des traitements fondés sur une décision exclusivement automatisée, c’est-à-dire effectués sans intervention humaine, sauf si l’une des exceptions prévues à l’article 22.2 du RGPD s’applique (dont le consentement explicite de chaque personne concernée). Or, de nombreuses technologies d’IA permettent justement ce type de prise de décision sans supervision humaine. Nous arrivons à des processus si sophistiqués qu’ils en deviennent inexplicables. Un problème que l’on illustre plus particulièrement par l’image de « Black Box » (boîte noire). Toutes les recherches concernant l’apprentissage profond (ou le « deep learning » - lorsque le processus technologique apprend par lui-même, évolue de manière automatisée) viennent alors potentiellement se heurter au principe de transparence. Cela pose problème par rapport au développement de l’IA, et nécessite d’évaluer et encadrer toute expérimentation et application soigneusement au regard de la règlementation applicable.

Comment limiter les biais sans freiner l’innovation ?

Ceux qui développent les algorithmes peuvent par exemple se mettre d’accord sur une charte de principes éthiques afin que les procédés soient des plus explicables et des plus neutres possible. Cette éthique pourrait limiter non seulement des décisions discriminantes prises sur des biais, mais également les préjugés.
Un groupe d’experts européens vient de publier un code de conduite au niveau de la Commission européenne sur cette notion d’IA responsable. Il s’agit d’un ensemble de règles éthiques destinées aux développeurs d’algorithmes qui peuvent adhérer à l’expérimentation de l’application de ces règles dans une phase pilote jusqu’en 2020. Leur retour d’expérience sera ainsi pris en compte par la Commission pour décider des actions suivantes.

Quelle est votre position concernant une réglementation par le droit souple ?

Nous pouvons faire le parallèle avec la problématique de la recherche génétique, la science peut aller extrêmement loin dans ses innovations : devons-nous y mettre un frein par la loi ? La loi ne peut souvent intervenir de manière pertinente en matière d’innovation que lorsque le sujet est suffisamment « mûr » et circonscrit. Si l’on commence, aux balbutiements de l’IA, par appliquer une réglementation avec trop de droit dur, nous allons laisser d’autres pays sont moins contraignants prendre de l’avance. Le grand enjeu économique qui se cache derrière la question de la réglementation est la place de l’Europe dans le monde en matière d’IA. Le projet de lignes directrices en matière d’éthique de l’IA de l’Union européenne me paraît donc intéressant mais une démarche mondiale est également à adopter.

Comment réguler le partage de données nécessaire à l’intelligence artificielle ?

La question de l’accès aux données est un autre enjeu clé de l’essor de l’IA, et n’est pas limitée aux données personnelles. L’ensemble des informations provenant des entreprises sont concernées. Elles peuvent présenter un intérêt pour autant que les entreprises en prennent conscience et soient prêtes à réfléchir à l’intérêt de partager ces données, comment, avec qui et pourquoi. En effet plusieurs questions se posent. Qui détient la propriété de ces données, peuvent-elles même faire l’objet d’un droit de propriété (en dehors du régime juridique protégeant les bases de données, lui-même peu et mal adapté) ? Les engagements de confidentialité ou le secret des affaires sont de nature à faire obstacle au besoin ou souhait de partager ces données pour l’IA, comment créer un cadre juridique adapté ? Aujourd’hui les entreprises européennes qui travaillent en matière d’IA se procurent des bases de données principalement à l’étranger. En France et en Europe, cette fluidité fait défaut, chaque entreprise semble crispée sur ses propres données. Mais cette situation a vocation à évoluer.

Ainsi, la société Volvo a par exemple récemment annoncé mettre à disposition de toute l’industrie automobile la totalité de ses données sur l’impact des accidents automobiles plus important sur les femmes que sur les hommes. La société se base sur les données des tests de collision qu’elle a recueillies depuis plus de 40 ans et dénonce notamment le fait que les mannequins utilisés pour ces tests soient des hommes. Elle invite tous les autres constructeurs automobiles ainsi que les firmes de développement à les utiliser, et ce, dans le but de rendre les routes plus sécuritaires pour tous.

Le partage des données est parfaitement possible au plan juridique sans besoin à ce stade de régulation supplémentaire sous réserve de mettre en place les instruments contractuels de nature à respecter la réglementation applicable, notamment en cas de données à caractère personnel, et les droits et obligations pouvant affecter les données, ou bases de données, concernées. Cet accompagnement repose nécessairement sur un travail préalable d’identification et de cartographie des données de l’entreprise.

Propos recueillis par Louise Jammet