PantagramStudios
Interface de développement macOS affichant des flux réseau et des appels API liés à des modèles IA locaux
Open SourceIAmacOS

RemoteLLMObserver : observer les appels LLM locaux sur macOS

14 mai 2026·2 min de lecture·Par Loïc Vinet·CTO & Architecte Plateforme

Entre Ollama, LM Studio, les APIs OpenAI-compatible et les wrappers maison, il y a beaucoup de trafic entre une application et un modèle. RemoteLLMObserver est un petit outil macOS pour voir ce qui circule — les requêtes, les payloads, les prompts réels.

Pas d'abonnement, pas de compte à créer, pas de serveur distant. Le projet est open source et disponible sur GitHub :
https://github.com/pantagram/RemoteLLMObserver


C'est quoi au juste le prompt qu'on envoie ?

Dans les applications IA, le prompt final n'est presque jamais celui qu'on a écrit. Des couches système, des enrichissements RAG, des instructions internes — tout ça modifie la requête avant qu'elle parte vers le modèle.

RemoteLLMObserver affiche le payload réel envoyé. Ça permet de voir ce qui arrive vraiment, pourquoi certaines réponses partent en vrille, ou d'où vient l'explosion de tokens.


Léger comme il faut

L'outil observe les appels vers des endpoints LLM locaux et affiche les échanges. On lance, on regarde, c'est à peu près tout.

Pas de stack à configurer, pas de dépendance cloud, pas de Wireshark à sortir pour un truc de cinq minutes.


macOS, et c'est assumé

Le projet cible macOS parce que c'est là que beaucoup d'équipes IA travaillent aujourd'hui. Entre les Mac Apple Silicon et les runtimes locaux comme Ollama ou LM Studio, le setup entièrement local est devenu courant.

Les outils de monitoring adaptés, un peu moins.


Open source, donc à toi aussi

RemoteLLMObserver est un outil qu'on utilise en interne. On le partage parce que le besoin est commun et que le code peut servir à d'autres.

Si quelque chose manque ou gagnerait à être amélioré, une PR est toujours la bienvenue.

Le dépôt GitHub est par là :
https://github.com/pantagram/RemoteLLMObserver

Un projet en tête ?

Discutons de vos besoins — architecture, IA, hébergement ou développement.

Blog

Nos derniers articles