Un expert en cybersécurité met en garde contre le partage excessif avec les chatbots IA

Cet essai tel que raconté est basé sur une discussion avec Sebastian Gierlinger, vice-président de l'ingénierie chez Storyblok, une société de systèmes de gestion de contenu de 240 employés basée en Autriche. Il a été édité pour des raisons de longueur et de clarté.

Je suis un qualified en sécurité et vice-président de l'ingénierie dans une société de systèmes de gestion de contenu, qui compte Netflix, Tesla et Adidas parmi ses clientele.

Je pense que l’intelligence artificielle et ses développements les as well as récents sont une aubaine pour les processus de travail, mais les nouvelles capacités de ces chatbots à IA générative nécessitent également moreover d’attention et de sensibilisation.

Voici quatre choses que je garderais à l'esprit lors de l'interaction avec des chatbots IA comme ChatGPT d'OpenAI, Gemini de Google, Claude d'Anthropic ou Perplexity AI.

Un expert en cybersécurité met en garde contre le partage excessif avec les chatbots IA

Comparez cela à l’utilisation des médias sociaux

Une selected importante à retenir lors de l’utilisation de ces chatbots est que la discussion ne se déroule pas uniquement entre vous et l’IA.

J'utilise moi-même ChatGPT et des grands modèles de langage similaires pour des tips de vacances et je tape des invites telles que : « Hé, quels sont les superbes endroits ensoleillés en mai avec des plages décentes et au moins 25 degrés. »

Mais des problèmes peuvent survenir si je suis trop précis. L'entreprise peut utiliser ces informations pour previous le prochain modèle et quelqu'un pourrait demander des informations sur moi au nouveau système, et des parties de ma vie deviendraient consultables.

Il en va de même pour le partage de détails sur vos funds ou votre valeur nette avec ces LLM. Bien que nous n'ayons jamais vu de cas où cela se soit produit, le pire résultat serait que des données personnelles soient introduites dans le système, puis révélées lors de recherches.

Il pourrait déjà exister des modèles dans lesquels ils sont capables de calculer votre valeur nette en fonction de l'endroit où vous vivez, de votre secteur d'activité et de fournir des détails sur vos mother and father et votre style de vie. C'est probablement suffisant pour calculer votre valeur nette et si vous êtes une cible viable ou non pour les escroqueries, par exemple.

Si vous avez des doutes sur les détails à partager, demandez-vous si vous les publieriez sur Facebook. Si votre réponse est non, ne la téléchargez pas sur le LLM.

Suivez les directives de l'entreprise en matière d'IA

Comme l’utilisation de l’IA sur le lieu de travail devient courante pour des tâches telles que le codage ou l’analyse, il est crucial de suivre la politique d’IA de votre entreprise.

Par exemple, mon entreprise dispose d'une liste d'éléments confidentiels que nous ne sommes pas autorisés à télécharger sur un chatbot ou un LLM. Cela inclut des informations telles que les salaires, les informations sur les employés et les performances financières.

Nous faisons cela parce que nous ne voulons pas que quelqu'un tape des invitations telles que « Quelle est la stratégie commerciale de Storyblok » et que ChatGPT go on de cracher « Story Block travaille actuellement sur 10 nouvelles opportunités, qui sont les sociétés 1, 2, 3, 4, et ils s'attendent à un chiffre d'affaires de X, Y, Z pounds au prochain trimestre. » Ce serait un énorme problème pour nous.

Pour le codage, nous avons une politique selon laquelle l'IA comme le Copilot de Microsoft ne peut être tenue responsable d'aucun code. Tout le code produit par l'IA doit être vérifié par un développeur humain avant d'être stocké dans notre référentiel.

Utiliser les LLM avec prudence au travail

En réalité, environ 75 % des entreprises n’ont pas encore de politique en matière d’IA. De nombreux employeurs n'ont pas non furthermore souscrit à des abonnements IA en entreprise et ont simplement dit à leurs employés : « Hé, vous n'êtes pas autorisé à utiliser l'IA au travail ».

Mais les gens ont recours à l’IA avec leurs comptes privés parce que les gens sont des personnes.

C’est à ce minute-là qu’il devient vital de faire consideration à ce que vous entrez dans un LLM.

Dans le passé, il n’y avait aucune véritable raison de télécharger les données de l’entreprise sur un website Website aléatoire. Mais désormais, les employés de la finance ou du conseil qui souhaitent analyser un finances, par exemple, peuvent facilement télécharger des numéros d'entreprise ou de clients dans ChatGPT ou une autre plateforme et lui poser des inquiries. Ils divulgueraient des données confidentielles sans même s'en rendre compte.

Différencier les chatbots

Il est également vital de différencier les chatbots IA puisqu’ils ne sont pas tous construits de la même manière.

Lorsque j'utilise ChatGPT, j'ai confiance qu'OpenAI et toutes les personnes impliquées dans sa chaîne d'approvisionnement font de leur mieux pour garantir la cybersécurité et que mes données ne seront pas divulguées à de mauvais acteurs. Je fais confiance à OpenAI pour le minute.

Les chatbots IA les moreover dangereux, à mon avis, sont ceux qui sont développés en interne. On les trouve sur les web-sites Website des compagnies aériennes ou des médecins et ils n'investissent peut-être pas dans toutes les mises à jour de sécurité.

Par exemple, un médecin peut inclure un chatbot sur son site World wide web pour effectuer un premier tri, et l'utilisateur peut commencer à insérer des données de santé très personnelles qui pourraient permettre à d'autres de connaître sa maladie en cas de violation des données.

À mesure que les chatbots IA deviennent as well as humains, nous sommes incités à partager davantage et à nous ouvrir à des sujets que nous n’aurions pas abordés auparavant. En règle générale, j'exhorte les gens à ne pas utiliser aveuglément tous les chatbots qu'ils rencontrent et à éviter d'être trop précis, quel que soit le LLM auquel ils s'adressent.

Vous travaillez dans le domaine de la technologie ou de la cybersécurité et avez une histoire à partager sur votre expérience avec l'IA ? Contactez ce journaliste : shubhangigoel@insider.com.