La semaine dernière, Meta a annoncé la sortie de Code Llama, un nouveau modèle conçu pour la programmation et d’autres utilisations commerciales. Code Llama, Meta a pris soin de le noter dans le billet de blog, est ouvert à une utilisation gratuite et destiné « à soutenir les ingénieurs logiciels dans tous les secteurs – y compris la recherche, l’industrie, les projets open source, les ONG et les entreprises ».
L’accent mis sur l’« ouvert », comme s’il était synonyme de « libre », était présent dans tous les communiqués de presse et a été largement cité comme un événement marquant, sans aucune controverse. On pourrait vraiment imaginer que le géant technologique ait pris une décision de valeur inhabituelle dans un environnement concurrentiel et qu’au lieu de profiter de sa taille pour dominer la prochaine révolution technologique, il fasse preuve de « retenue », de « compréhension profonde » ou de « responsabilité ». pour le moment critique actuel et adopte une approche de transparence.
1 Voir la galerie
Mark Zuckerberg, PDG de Facebook
Le choix est délibéré. La transparence est aujourd’hui un critère souhaitable dans un domaine qui est considéré, d’une part, comme une « boîte noire » inexplicable, et un poste ouvert permet souvent d’accéder à des connaissances concernant les jeux de données, les méthodes de formation et autres décisions, et tout parmi ceux-ci permettent la supervision, le contrôle et la critique des modèles. D’un autre côté, il s’agit d’un domaine d’une importance cruciale pour façonner la vie sociale, économique et politique.
L’approche « ouverte » dans ce sens résout également le problème des coûts élevés du secteur en proposant apparemment les produits aux petits acteurs « gratuitement ». De cette manière, « l’ouverture » signale aux régulateurs qu’elle reconnaît le problème de la concentration du pouvoir et qu’elle s’efforce de le réduire. Meta n’est bien sûr pas le premier. Le concurrent OpenAI a été créé en 2015 et ses fondateurs ont marqué dans son nom son engagement en faveur de l’ouverture (bien qu’il ait depuis abandonné cette ouverture). Elon Musk a également déclaré à plusieurs reprises qu’il rendrait Twitter « open source », et a récemment annoncé qu’il ferait également la même chose chez Tesla.
Dans l’ensemble, cela semble encourageant. L’open source, l’ouverture et la transparence sont les idées fondatrices d’une grande partie d’Internet et l’outil que le mouvement du « logiciel libre » utilise pour promouvoir l’autodétermination technologique depuis les années 1980.
Un retour à ces idées par des entreprises qui opèrent résolument uniquement dans un but apparent de profit rendra non seulement le domaine de l’intelligence artificielle plus démocratique, mais injectera également une innovation saine dans ce domaine. Quand cela vient volontairement de géants comme Meta, OpenAI, dans lequel Microsoft investit, et de l’homme le plus riche du monde, Elon Musk, cela ressemble à un rêve. En pratique, c’est vraiment un rêve : des chercheurs de l’Université Carnegie Mellon, de l’AI Now Institute et de la Signal Foundation affirment dans une nouvelle étude que même si les modèles sont qualifiés d’« ouverts », ils ne le sont pas.
Ainsi, par exemple, ils expliquent qu’il est possible de télécharger, modifier et déployer Llama gratuitement, mais la licence de Meta interdit son utilisation pour entraîner d’autres modèles de langage, et nécessite une licence spéciale supplémentaire si un développeur souhaite le déployer dans une application. ou service avec plus de 700 utilisateurs quotidiens. Certaines des entreprises qui se réclament de l’open source ne divulguent pas non plus toutes les informations pertinentes, telles que la manière dont les données ont été formées, et ne produisent pas suffisamment de connaissances ouvertes pour reproduire la construction des modèles, et ne permettent donc pas une bonne critique de ceux-ci. L’« ouverture », en revanche, incite les développeurs à travailler dans ces limites et à innover au sein d’un écosystème spécifique, ce qui produit des avantages significatifs pour les grandes entreprises, renforce leur pouvoir et réduit en pratique la concurrence à long terme.
L’ouverture, affirment-ils dans l’étude, n’est pas la liberté, mais une stratégie pour établir le pouvoir : « Elle permet à Meta, à Google et à ceux qui gèrent le développement du framework de standardiser le développement pour l’adapter aux plates-formes de leur entreprise. amène les développeurs à créer des systèmes d’intelligence artificielle de type Lego qui se connectent aux plateformes de l’entreprise. »
Ce n’est pas une nouvelle tactique. Prenons par exemple Android, le système d’exploitation que Google a acquis et lancé en open source en 2007. Il se positionne ainsi comme une alternative à Apple et suscite l’intérêt des développeurs qui consacrent leur temps à la création et à la maintenance d’applications Android. Ceux-ci, à leur tour, ont rendu le système d’exploitation plus attractif pour les consommateurs.
Et le problème ne s’arrête pas là. “Le marketing autour de l’ouverture et l’investissement dans les systèmes ouverts d’intelligence artificielle”, écrivent-ils, “sont exploités par des entreprises puissantes pour établir leurs positions face à l’intérêt croissant pour la réglementation dans ce domaine”. Selon eux, l’utilisation du mot « ouvert » induit le public en erreur et tente d’influencer les régulateurs du monde entier pour qu’ils n’imposent pas de restrictions réglementaires appropriées aux acteurs qui opèrent sans aucun doute comme un oligopole dans le domaine.
En Europe, ce point est particulièrement dominant, où une législation avancée sur l’intelligence artificielle a déjà été proposée, et où l’industrie s’efforce de faire pression sur les régulateurs pour qu’ils la modifient afin qu’elle ne pèse pas trop sur les projets open source, censés créer un champ concurrentiel plus sain..
À première vue, cela peut paraître un peu mesquin, après tout, qu’est-ce qu’un « modèle ouvert » en réalité ? Où tracez-vous la limite ? Il s’agit peut-être de limitations vraiment raisonnables si l’on tient compte du fait que Meta ne veut pas divulguer de secrets commerciaux et qu’elle investit des dizaines de millions de dollars dans leur développement. Meta ne veut surtout pas les céder gratuitement et sans conditions à ceux qui pourraient être concurrents. Mais si l’intelligence artificielle est l’une des technologies les plus importantes au monde, souhaite-t-on qu’elle soit sous le contrôle de quelques-uns ? N’avons-nous rien appris de l’ère des réseaux sociaux, où le pouvoir concentré entre les mains d’une poignée d’entreprises dont le seul objectif est de générer le plus de profit possible peut en réalité nuire à des éléments fondamentaux de la vie sociale ? Non seulement cela, affirme l’étude, mais ce sont précisément les énormes avantages que « l’open source » génère pour les entreprises qui ont poussé en faveur de cette forme de marketing.
Le problème n’est pas seulement une tentative d’aveugler les yeux du régulateur avec des mots à charge émotionnelle positive comme « ouvert », mais la contradiction de l’idée que l’ouverture tente de promouvoir. L’objectif initial était de promouvoir la liberté et l’ouverture dans le cadre étroit d’un code ou d’un modèle basé sur l’idée de « libre ». Mais dans la pratique, cela ne conduit pas à une « démocratisation » de la technologie, mais seulement à sa promotion selon des voies prédéterminées et limitées. Nous sommes donc obligés une fois de plus de faire confiance à l’orientation fixée par les grandes entreprises, avec le « privilège » de voir le chemin à parcourir, et peut-être de leur proposer des améliorations, des évolutions ou de nouveaux usages. Mais cette fois, le risque est plus grand, car il s’agit de systèmes intégrés dans des domaines sensibles ayant un impact public profond sur la santé, l’éducation, la gouvernance, la protection sociale et les finances. Les chercheurs affirment une évidence : “ce sont des effets qui ne devraient pas être déterminés par une petite poignée d’entreprises motivées par le profit”.