BATEN AI
Modèles IA

Les adapters LoRA — comment ils fonctionnent

4 min de lecture

LoRA signifie Low-Rank Adaptation. C'est une technique d'entraînement qui permet de personnaliser un modèle de langage en ajoutant un petit nombre de paramètres supplémentaires — sans modifier les poids de base.

L'analogie du filtre photographique

Le modèle de base (Mistral 7B) est comme un appareil photo. Un adapter LoRA est comme un filtre — il ne change pas l'objectif ni le capteur, il modifie la façon dont la lumière est traitée. Changer d'archétype revient à changer de filtre.

8 adapters entraînés sur des données spécialisées

Chaque adapter LoRA dans D1sm a été entraîné sur un corpus SARI-Sealed — un dataset structuré autour des lois de trajectoire de la Matrice FTH. Les données représentent des milliers d'exemples de raisonnement dans le registre de chaque archétype.

ArchétypeAdapterLoss d'entraînement
ORIGlisan_orig_v30.2050
KINElisan_kine_v30.2928
PSYClisan_psyc_v30.2167
NARRlisan_narr_v30.2178
CORPlisan_corp_v30.1825
POETlisan_poet_v30.1906
MINIlisan_mini_v30.2075
TECHlisan_tech_v30.1910

Ce que signifie la loss

La loss mesure la différence entre ce que le modèle prédit et ce qu'il devrait prédire. Une loss inférieure à 0.25 est considérée excellente pour ce type d'entraînement — CORP à 0.1825 est le plus précis du set.

← Retour au Centre d'aideOuvrir BATEN AI →