Merci pour l’enregistrement !
Depuis que le partenariat entre Microsoft et OpenAI a ouvert la voie à un avenir où l’IA alimente les résultats des moteurs de recherche, une training course acharnée s’est engagée entre Bing et Google pour mettre en œuvre la technologie.
Google et Microsoft cherchent à améliorer les résultats des moteurs de recherche avec de grands modèles de langage qui, selon eux, distilleront des informations “complexes” tout en répondant de manière humaine aux requêtes. Microsoft implémentera ChatGPT dans son moteur de recherche existant Bing, tandis que Google a annoncé le lancement d’un “support d’IA conversationnel expérimental” nommé Bard.
Dans les coulisses, cependant, se trouve une opération déjà gourmande en ressources de upkeep des systèmes informatiques pour aider les moteurs de recherche qui pourraient devenir furthermore gourmands en ressources.
La puissance utilisée pour former une seule intelligence artificielle peut émettre des centaines de milliers de livres d’émissions de carbone, tandis que l’utilisation d’Internet représente près de 4 % des émissions mondiales de gaz à effet de serre.
La puissance de calcul nécessaire pour fusionner l’IA avec la demand des requêtes des moteurs de recherche pourrait augmenter jusqu’à 5 fois la puissance de calcul nécessaire d’entreprises comme Google et Microsoft, ont déclaré des specialists à Wired. Et avec l’augmentation des ordinateurs, les émissions de gaz à effet de serre vont augmenter.
“Cela nécessite une puissance de traitement ainsi qu’un stockage et une recherche efficace”, a déclaré à Wired Alan Woodward, professeur de cybersécurité à l’Université de Surrey. “Chaque fois que nous constatons un changement radical dans le traitement en ligne, nous constatons une augmentation significative des ressources d’alimentation et de refroidissement requises par les grands centres de traitement.”
Les nouveaux moteurs de recherche nécessiteront également davantage de centres de données pour stocker les données. Martin Bouchard, fondateur de la société de centres de données QScale, a déclaré à Wired que l’IA entraînerait “au moins quatre ou cinq fois as well as de calculs par recherche”.
Jane Park, porte-parole de Google, a déclaré que la société lancerait initialement une model “in addition légère” de Bard qui nécessiterait moins de puissance de calcul.
“Nous avons également publié des recherches détaillant les coûts énergétiques des modèles de langage de pointe, y compris une variation antérieure et as well as grande de LaMDA”, a déclaré Park dans un communiqué. “Nos résultats montrent que la combinaison de modèles, de processeurs et de centres de données efficaces avec des sources d’énergie propres peut réduire jusqu’à 1000 fois l’empreinte carbone d’un système ML.”
Les problèmes environnementaux ne sont pas les seules critiques que ChatGPT et l’IA de Google ont reçues dans le passé.
Adam Rogers, a expliqué comment les réponses des moteurs de recherche produites par l’IA pourraient produire des réponses contenant des informations erronées ou une logique défectueuse qui peuvent être in addition difficiles à détecter par les chercheurs.
derrière les pièges d’une prose acceptable, presque mais pas tout à fait humaine”, a écrit Rogers. “Aussi faux qu’ils soient, ils sonneront juste.”