5549 – Google recommande à ses employés de ne pas faire confiance à ses propres outils d’IA – par Jérôme Marin le 16 Juin 23 – UsineDigitale –


Jérôme Marin le 16 Juin 23 – UsineDigitale –
Le moteur de recherche recommande à ses employés de ne plus entrer des informations confidentielles dans les robots conversationnels. Et de ne pas les utiliser pour produire du code informatique.


Lancé dans une course de vitesse face à OpenAI, le créateur de ChatGPT, Google incite ses propres employés à la prudence avant d’utiliser les nouveaux outils bâtis autour de l’intelligence artificielle générative.
Selon un document interne consulté par Reuters, le moteur de recherche recommande à ses salariés de “ne pas inclure des informations confidentielles ou sensibles” dans leurs conversations avec les robots conversationnels, même dans Bard, sa riposte à ChatGPT.

Fuites de données confidentielles
Cette demande s’explique par la crainte de potentielles fuites d’informations : ces services utilisent en effet leurs conversations pour poursuivre leur entraînement. En début d’année, des données confidentielles de Samsung avaient ainsi été entrées dans ChatGPT par des employés du sud-coréen, et régurgitées par ChatGPT.
Depuis, Samsung a interdit l’utilisation de ces services sur l’ensemble des terminaux de l’entreprise. Plusieurs banques, comme JPMorgan Chase et Deutsche Bank, ont aussi limité ou interdit les IA génératives. Selon le Wall Street Journal, Apple aurait mis en place des restrictions.
Par ailleurs, Google demande à ses ingénieurs d’éviter d’utiliser du code informatique produit par les chatbots, en raison de nombreuses erreurs. Amazon recommande la même chose. Fin décembre, la plateforme de développeurs Stack Overflow avait banni les réponses fournies par ChatGPT.

Google cherche à convaincre les entreprises
L’avertissement du groupe de Mountain View est à mettre en parallèle avec ses efforts pour convaincre les entreprises d’utiliser les services d’IA générative qu’il déploie sur ses produits. Google insiste beaucoup, par exemple, sur les capacités de Bard à produire du code informatique.
La société a aussi commencé à tester l’intégration de cette technologie dans sa messagerie Gmail et sa suite logicielle Workspace, qui inclut notamment Google Docs. Soit autant de services qui peuvent contenir des informations confidentielles sur les entreprises qui les utilisent.
Face à ce problème qui pourrait limiter le potentiel du marché, OpenAI prévoit de lancer une nouvelle offre payante, baptisée ChatGPT Business. Celle-ci offrira “davantage de contrôle sur leurs données”, qui ne seront plus utilisées pour l’entraînement de son grand modèle de langage.

Sélectionné pour vous
Sur le même sujet


https://www.usine-digitale.fr/article/google-recommande-a-ses-employes-de-ne-pas-faire-confiance-a-ses-propres-outils-d-ia.N2143752