Skip to content

ACROSS-Lab/gaml-generator

Repository files navigation

Le docker qui sert à faire de la génération contrainte en streaming. Il fonctionne spécifiquement pour faire de la génération contrainte (avec la grammaire gbnf), mais le py 9.3 n'a pas besoin de génération contrainte (donc ça peut être remplacer par un llm géré par ollama et avec une grammaire lark).

Le 9.3 se lance normalement, il faut changer les paramètres à l'intérieur du fichier. Il est sensé boucler sur plusieurs prompts et faire des requêtes pour sortir le code de ces prompts.

les jsonl sont respectivement les codes gaml récupérés de github et ces mêmes codes avec un prompt généré par IA qui aurait pu les donner

les ipynb sont là pour créer une bdd sur neo4j. Pour les faire fonctionner il faut avoir les fichiers BuiltInArchitecture.md, BuiltInSkills.md etc

La 7.1 a une interface graphique et se lance avec streamlit run 7.1.incremental.py

La commande utilisée pour lancer le docker llama.cpp est ci dessous

docker run --rm -p 8000:8080 -v ~/models:/models ghcr.io/ggerganov/llama.cpp:server -m /models/mistral-7b-instruct-v0.2.Q4_K_M.gguf -c 4096 --host 0.0.0.0 --port 8080

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published