Void

Void - Éditeur de code AI open source avec contrôle total des données

Lancé le 6 mars 2026

Void est un éditeur de code AI open source basé sur VS Code qui se connecte directement à n'importe quel LLM sans intermédiaire. Pas de verrouillage fournisseur, pas de problèmes de données – vous contrôlez complètement vos données. Supporte Agent Mode avec n'importe quel modèle, Checkpoints pour le contrôle de version et déploiement local via Ollama.

Codage IAEn vedettePrix ouvertPlugin IDEGénération de CodeGrand Modèle de Langage (LLM)Complétion de CodeOpen Source

什么是 Void

Tu as peut-être déjà connu cette frustration : ton code part vers un serveur tiers, et tu n'as aucun contrôle sur ce qu'il devient. Ou pire, tu es coincé avec un seul fournisseur d'IA, sans possibilité de changer de modèle selon tes besoins. Ces deux problèmes, nous les avons identifiés chez des milliers de développeurs.

Void naît précisément de ces préoccupations. C'est un éditeur de code AI open source, construit directement sur un fork de VS Code, qui te permet de te connecter à n'importe quel LLM sans aucun intermédiaire. Tes messages vont directement au fournisseur de ton choix — OpenAI, Anthropic, Google, DeepSeek, ou même des modèles locaux comme Ollama. Aucune donnée ne transite par un serveur privé. Tu gardes le contrôle total.

Notre communauté grandit vite : 28 300 étoiles sur GitHub, plus de 2 300 forks, 46 contributeurs actifs, et près de 2 800 commits. Des développeurs du monde entier ont adopté Void pour sa philosophie d'ouverture et sa flexibilité sans pareille.

Points essentiels
  • Architecture : fork natif de VS Code (v1.99.0), migration零成本
  • Connexion : direct aux LLM sans intermédiaire, données toi-même
  • Versionnage : Checkpoints pour l'historique visuel des éditions IA
  • Transparence : 100% open source sous licence Apache 2.0, code auditable

⚠️ Information importante : Void a suspendu son développement pour explorer de nouvelles idées. L'éditeur continuera à fonctionner, mais sans maintenance active, certaines fonctionnalités pourraient cesser de fonctionner avec le temps.


Void a ses fonctionnalités principales

Ce qui distingue Void, c'est sa capacité à s'adapter à ton workflow plutôt que l'inverse. Nous avons conçu chaque fonctionnalité pour qu'elle soit intuitive et puissante à la fois.

Tab : la complétion intelligente

Tu tapes ton code et tu appuies sur Tab pour accepter les suggestions IA. Le système utilise des modèles FIM (Fill-in-the-Middle) personnalisés pour des prédictions pertinentes, directement intégrées à ton flux de travail.

Quick Edit : édition inline rapide

选中一段代码,然后按 Ctrl+K. Un assistant IA apparaît pour modifier cette sélection précise. L'historique des éditions est géré automatiquement, tu peux revenir en arrière facilement.

Chat : trois modes de conversation

Le panneau de chat propose trois approches distinctes. En mode Chat classique, tu poses des questions sur ton code. Le mode Agent donne à l'IA les mains libres pour chercher, créer, éditer ou supprimer des fichiers — un vrai partenaire de travail. Le mode Gather est plus restreint, idéal pour explorer un projet sans le modifier.

Tu peux référencer des fichiers avec @file ou @folder, et le système inclut des liens vers les symboles de ton projet pour des réponses plus précises.

Agent Mode : puissance maximale

C'est ici que Void révèle son vrai potentiel. L'IA agit comme un agent complet avec accès au terminal, aux outils MCP, et peut corriger les erreurs de lint automatiquement. Le point fort : n'importe quel modèle peut exécuter ce mode, même ceux qui ne supportent pas nativement le tool calling — comme DeepSeek R1, Gemma 3, ou GPT 4.1.

Checkpoints : le versionnage intelligent

Chaque édition faite par l'IA est sauvegardée avec un diff visuel. Tu peux naviguer dans l'historique, comparer les versions, et revenir à un état précédent en un clic. Fini les manipulations hasardeuses de Ctrl+Z.

MCP : l'écosystème ouvert

Depuis la version 1.4.1, Void intègre le Model Context Protocol. Tu peux connecter des outils externes directement dans ton workflow — services de données, APIs internes, ou tout ce que la communauté MCP développe.

Fast Apply : vitesse sur gros fichiers

Quand tu dois modifier un fichier de 1000 lignes, pas le temps pour les résumés intermédiaires. Fast Apply sort directement les blocs Search/Replace, pour des opérations massives ultra-rapides.

  • Open source complet : tout le code est auditable, aucune fonctionnalité cachée
  • Liberté totale des modèles : connecte OpenAI, Claude, Gemini, DeepSeek, Llama, Qwen, Mistral, Grok...
  • Migration VS Code : thèmes, raccourcis, settings importés en un clic
  • Checkpoints visuels : historique complet des modifications IA avec diff
  • Développement suspendu : pas de nouvelles fonctionnalités prévues
  • Maintenance limitée : pas de correction active des bugs
  • Fonctionnalités,可能会过时 : certaines features peuvent cesser de fonctionner

Qui utilise Void ?

Void s'adresse à des profils très différents, united par un besoin commun : le contrôle. Voici comment notre communauté l'utilise au quotidien.

Les développeurs soucieux de leur vie privée

Tu n'as pas envie que ton code propriétaire parte vers des serveurs externes ? Nous aussi. Void connecte directement ton LLM sans aucun intermédiaire, et si tu veux aller plus loin, Ollama permet de faire tourner tout localement. Tes données ne quittent jamais ta machine. C'est particulièrement appréciable pour le code sensibles ou les projets confidentiels.

Les utilisateurs veut de la liberté de modèle

Tu utilises DeepSeek pour le coût, Claude pour la rédaction, Gemini pour la vitesse — et tu veux choisir selon la tâche ? Void te permet de basculer d'un modèle à l'autre en quelques secondes. Plus de verrouillage fournisseur.

Les développeurs VS Code

Tu maîtrises ton éditeur sur le bout des doigts, et l'idée d'apprendre un nouveau logiciel te rebute ? Void résout ça élégamment. Puisque c'est un fork de VS Code, tes thèmes, tes extensions, tes raccourcis clavier, tout ça migre instantanément. Tu retrouves ton environnement exactement comme avant, avec l'IA en plus.

Les amateurs d'IA open source

Les modèles open source comme Llama, Qwen ou Mistral sont économiques et adaptables. Mais la plupart ne supportent pas le tool calling, ce qui limite leur usage en développement. Void contourne cette limitation : n'importe quel modèle peut tourner en Agent Mode, même sans support natif. Tu obtiens un environnement IA local et pas cher.

Les équipes enterprise

Audit de sécurité, conformité RGPD, politiques internes — les entreprises ont des exigences strictes. Void répond : code 100% open source auditable, possibilité d'auto-hébergement avec Ollama ou vLLM, aucune donnée qui transite vers l'extérieur.

💡 Choix stratégique

Pour une confidentialité maximale, configure Void avec Ollama en local. Pour une puissance maximale sur des tâches complexes, utilise les API cloud (Claude 3.7 ou GPT-4.1 recommandés pour démarrer).


Pour commencer rapidement

Installer Void et le faire tourner prend moins de dix minutes. Voici comment.

Installation

Rends-toi sur voideditor.com/download-beta et choisis ta plateforme — nous supportons macOS (Intel et Apple Silicon), Windows (x64 et ARM), et Linux. Télécharge, installe, et lance l'application.

Prérequis

Tu as besoin de deux choses :

  1. Un compte LLM : Ollama pour le local, ou une clé API chez OpenAI, Anthropic, ou Google
  2. Une machine correcte : 16 Go de RAM minimum pour faire tourner des modèles locaux confortablement

Configuration initiale

Au premier lancement, rends-toi dans Settings → Models. Ajoute ta clé API ou configure la connexion Ollama. Le système détecte automatiquement les modèles disponibles.

Ton premier usage

  • Tab : commence à coder, appuie sur Tab pour accepter les suggestions
  • Quick Edit : sélectionne du code, tape Ctrl+K, décris ce que tu veux changer
  • Chat : ouvre le panneau latéral, pose une question sur ton code
  • Agent Mode : tape une tâche comme « refactorise cette fonction », et regarde l'IA travailler
💡 Meilleure pratique

Pour découvrir toutes les capacités, commence par tester Agent Mode avec Claude 3.7 ou GPT-4.1. Ces modèles excellent dans la compréhension du contexte et la génération de code de qualité.


Caractéristiques techniques

Void repose sur une architecture solide et transparence totale.

Architecture et code

L'éditeur fork directement le code de VS Code v1.99.0, ce qui garantit une stabilité exceptionnelle et une compatibilité immédiate avec l'écosystème existant. Le code est écrit à 95.3% en TypeScript, avec des composants en Rust (0.7%) pour les performances critiques. Tout est distribué sous licence Apache 2.0, te permettant de audit, modifier et redistribuer à ta guise.

Dernière version stable

La version 1.4.1 (Beta Patch #7, juin 2025) inclut le support MCP, la génération de commits IA, et les diffs visuels pour l'outil Edit.

Innovations clés

Nous avons développé plusieurs fonctionnalités originales :

  • Connexion directe : messages goes straight au LLM, pas de serveur intermédiaire
  • Agent Mode universel : fonctionne avec n'importe quel modèle, même sans tool calling natif
  • Checkpoints : visualisation complète de l'historique d'édition avec navigation
  • Dynamic Context Squashing : compression intelligente du contexte pour les gros projets
  • Support MCP : intégration native du Model Context Protocol

Modèles supportés

En local : Ollama (Llama, Qwen, Mistral), DeepSeek V3, Gemma, vLLM

Via API : OpenAI (o3, o4-mini), Anthropic (Claude 3.7, 4), Google (Gemini 2.5), xAI (Grok 3)

  • Écosystème VS Code : extensions, thèmes, debuggers compatibles
  • Contrôle total des données : aucune donnée ne sort sans ton accord
  • Flexibilité modèle : changement de fournisseur en quelques clics
  • Auditable : code ouvert,License Apache 2.0
  • Développement à l'arrêt : pas de roadmap, pas de nouvelles features
  • Maintenance inactive : les bugs ne sont plus corrigés
  • Risque d'obsolescence : fonctionnalités,可能会失效

Questions fréquentes

Void est-il gratuit ?

Void lui-même est entièrement gratuit et open source. Cependant, pour utiliser les fonctionnalités IA, tu dois fournir ta propre clé API (OpenAI, Anthropic, Google) ou faire tourner un modèle en local avec Ollama — ce qui implique des coûts d'infrastructure.

Quelle est la différence entre Void et Cursor ?

Cursor est un produit commercial fermé. Void se distingue par trois points essentiels : il est 100% open source (code auditable), il te connecte directement à n'importe quel LLM sans intermédiaire, et tu maîtrises complètement tes données — rien ne transite par nos serveurs.

Dois-je payer pour les fonctionnalités IA ?

Le logiciel lui-même est gratuit. En revanche, appeler les API des fournisseurs LLM (OpenAI, Anthropic, Google) te sera facturé par ces derniers. Si tu utilises Ollama en local, le coût se limite à ton infrastructure (électricité, matériel).

Puis-je déployer Void en local ?

Absolument. Void supporte Ollama et vLLM pour une exécution 100% locale. Tes données ne quittent jamais ta machine, et tu peux travailler sans connexion internet.

Quels modèles supportent l'Agent Mode ?

Tous. C'est l'une des forces de Void — même les modèles open source qui ne supportent pas nativement le tool calling (comme DeepSeek R1, Gemma 3) peuvent fonctionner en Agent Mode.

Quel est l'état actuel du développement ?

⚠️ Void a suspendu son développement pour explorer de nouvelles idées. L'éditeur continuera à fonctionner, mais sans maintenance active. Les issues et pull requests ne sont plus examinées de manière proactive, bien que les maintainers répondent aux emails.

Comment contribuer au projet ?

Nous accueillons les contributions via GitHub. Soumets une pull request et notre processus de review évaluera ton apport. Le projet est sous licence Apache 2.0, donc tout contribution est la bienvenue.

Commentaires

Commentaires

Veuillez vous connecter pour laisser un commentaire.
Pas encore de commentaires. Soyez le premier à partager vos impressions !