Quieta : utilisez l'IA sans exposer vos données
Quieta : utilisez l'IA sans exposer vos données
On a construit Quieta parce qu'on s'est rendu compte de tout ce qu'on donnait aux IA sans y penser.
Comme beaucoup de gens qui utilisent l'IA au quotidien, j'ai commencé par des petites choses. Une clause de contrat. Un email à reformuler. Un résumé financier. Puis, au fil des semaines, j'ai réalisé : j'étais en train de nourrir ChatGPT, Claude, Gemini, Mistral et d'autres outils avec de plus en plus de détails sur ma vie personnelle et professionnelle. Détails de projets, messages personnels, nom de clients. Chaque copier-coller semblait anodin. Mais mis bout à bout, cela revient à donner une vue détaillée de notre travail à des plateformes qu'on ne contrôle pas.
Le risque, ce n'est pas un document isolé. C'est l'accumulation. Au fil des mois, ces plateformes construisent une image détaillée de votre vie, professionnelle et personnelle. Si ces données sont un jour exposées (et les fuites arrivent régulièrement, même chez les plus gros acteurs tech), ce n'est pas une conversation qui fuite. C'est tout ce que vous avez partagé, d'un coup.
Avocats, consultants, professionnels de santé, équipes RH : tout le monde est concerné. Mais aussi les freelances, les étudiants, toute personne qui utilise l'IA de manière intensive pour le travail ou les projets perso et qui ne veut pas que tout son historique soit stocké sur les serveurs de quelqu'un d'autre. Je n'avais pas de bonne solution. Alors on en a construit une.
Ce que Quieta fait, et comment
Quieta anonymise vos documents localement, sur votre appareil, avant qu'aucune donnée ne soit envoyée à un chatbot IA. Noms, dates, identifiants, codes projets sont remplacés par des marqueurs neutres. Quand votre texte arrive sur les serveurs de l'IA, les informations sensibles ont disparu.
Sous le capot, ce n'est pas de la simple détection de pattern. Quieta, entre autres choses, fait tourner un modèle de type transformer bidirectionnel (environ 1 Go) entraîné pour la reconnaissance d'entités nommées, directement sur votre machine. Le modèle utilise la reconnaissance en zero-shot : il identifie les entités sensibles par le contexte, pas à partir d'une liste prédéfinie. Il n'a pas besoin d'avoir déjà vu le nom de votre client. Sur les benchmarks NER, il égale les performances des LLM cloud, mais vos données ne quittent jamais votre ordinateur. Pas de serveur dans la boucle.
C'est la combinaison qui n'existait pas avant : une vraie intelligence IA, vos données restent 100 % locales.
Le workflow
1. Chargez votre document. Collez du texte, importez un fichier ou récupérez depuis votre presse-papiers. Quieta détecte les entités sensibles : noms, emails, noms de code projets, références internes. Vous décidez ce que vous masquez et ce que vous gardez.
2. Collez dans votre outil d'IA. Copiez la version anonymisée et utilisez-la dans n'importe quel chatbot ou agent IA. Obtenez votre analyse, votre résumé, votre brouillon.
3. Récupérez vos données originales. Quieta restaure les vrais noms et identifiants dans la réponse de l'IA. Vous lisez le résultat final avec vos données réelles, pas des marqueurs.
C'est tout. Vos données sensibles n'ont jamais quitté votre appareil.
Exemple : une clause de contrat
Avant Quieta :
7.2 La responsabilité totale cumulée de Dupont Industries au titre du
présent Contrat ne pourra excéder les honoraires versés par la
SCI Riviera au cours des douze (12) mois précédant la réclamation.
Contacts pour les notifications : Sophie Martin
(s.martin@dupont-industries.fr) et Pierre Duval
(p.duval@sci-riviera.fr).
Après Quieta :
7.2 La responsabilité totale cumulée de [ENTREPRISE_2] au titre du
présent Contrat ne pourra excéder les honoraires versés par
[ENTREPRISE_1] au cours des douze (12) mois précédant la réclamation.
Contacts pour les notifications : [PERSONNE_1]
([EMAIL_1]) et [PERSONNE_2] ([EMAIL_2]).
Vous demandez à votre outil d'IA "Ce plafond de responsabilité est-il standard pour un contrat de services ?" et vous obtenez une analyse utile, sans exposer l'identité des parties.
Pour qui ?
Pour toute personne qui utilise l'IA régulièrement et qui s'est déjà dit "je ne devrais probablement pas coller ça". Que vous soyez salarié, freelance, étudiant, ou simplement quelqu'un qui ne veut pas que ses conversations personnelles traînent dans le cloud.
Et plus particulièrement les professionnels qui manipulent des données confidentielles au quotidien : avocats, professionnels de santé, équipes RH, consultants sous NDA. Pour ces métiers, les enjeux ne sont pas que personnels, ils sont juridiques.
Pourquoi le "mode privé" ne suffit pas
Désactiver l'historique des conversations, c'est mieux que rien. Mais vos données transitent quand même par des serveurs externes et y sont stockées au moins temporairement. "Privé" signifie que la conversation ne servira pas à entraîner le modèle. Pas que vos données restent sur votre machine.
Quieta résout un problème différent. Les informations sensibles sont supprimées avant que quoi que ce soit ne soit envoyé. Les données ne sont tout simplement plus là.
Essayez
Testez Quieta sur quieta.ai. Chargez un document, vérifiez ce qui est détecté, collez la version anonymisée dans votre outil d'IA.
Ça prend quelques secondes. Essayez avec un document qui vous a déjà fait hésiter.
Questions ? jc@quieta.ai