Les signataires demandent notamment que le consentement des «titulaires de droits de propriété intellectuelle» soit recueilli avant que leurs contenus ne soient utilisés.
Des groupes de médias internationaux, dont l’AFP, The Associated Press ou le groupe Gannett/USA Today, appellent les dirigeants politiques et responsables du secteur à encadrer l’usage de l’intelligence artificielle (IA) dans le domaine de l’information, dans une tribune publiée mercredi.
À l’origine de cette lettre ouverte se trouvent dix signataires parmi lesquels des agences internationales de presse (Agence France-Presse – AFP, The Associated Press – AP) et de photo (Getty Images, European Pressphoto agency – EPA).
Mais aussi des organismes professionnels (European Publishers’ Council, National press photographers association, National Writers Union, News Media Alliance, The Authors Guild) ainsi que le groupe américain de médias Gannett/USA Today Network.
«Un cadre juridique doit être élaboré»
«Nous soutenons les progrès et le déploiement responsables de l’IA générative, tout en estimant qu’un cadre juridique doit être élaboré pour protéger les contenus qui alimentent les applications utilisant l’IA, tout en maintenant la confiance du public dans les médias», plaident les cosignataires.
Car «même en l’absence d’intention malveillante, de nombreuses applications d’IA générative et de grands modèles de langage produisent des erreurs factuelles et des informations fictives, en plus de propager des préjugés», exposent-ils.
D’où le plaidoyer des signataires pour la mise en place de mesures réglementaires. Ils demandent notamment de la «transparence» autour des méthodes d’entraînement des intelligences artificielles et de solliciter des «titulaires de droits de propriété intellectuelle» leur consentement avant d’utiliser leurs contenus – comme les photos ou articles de presse – pour entraîner les IA génératives.
Les signataires plaident également pour que tous les contenus et échanges incluant des contenus générés par de l’intelligence artificielle soient signalés et clairement identifiés. Enfin, que «les fournisseurs de modèles génératifs d’IA prennent des mesures pour éliminer les préjugés et la désinformation dans leurs services».
Laisser un commentaire