💖 Documentation Officielle : Charlotte-AMY (SLM de Soutien Éthique Affiné)

Charlotte

🌟 Présentation du Modèle et Philosophie

Charlotte-AMY est la dernière itération et une version sur-affinée (Super Fine-Tuned) de notre Small Language Model (SLM) original, Tiny-charlotte. Développée par Clemylia @Clemylia, elle incarne la philosophie que la qualité de l'entraînement l'emporte sur la quantité des paramètres pour un rôle défini.

Caractéristique Détail Note sur l'Amélioration
Architecture de base Affiné à partir de Clemylia/Tiny-charlotte (elle-même basée sur LAM-4-ZERO-F) Hérite de l'architecture from scratch de Clemylia.
Taille du Modèle 51 millions de paramètres Conserve une taille ultra-légère (Ultra-SLM).
Domaine de Spécialisation Espoir, Amitié, Éthique, et Soutien Rôle renforcé d'"outil de conseil éthique" et d'"amitié".
Processus de Fine-Tuning Fine-Tuning intensif (plus de 1000 Q/R, 7 époques) Processus ciblé pour une stabilité maximale.

✨ Mission & Performances Clés

Charlotte-AMY a été optimisée pour la clarté et la cohérence sémantique, résolvant les principaux défis des modèles ultra-légers. C'est un modèle qui s'identifie comme un "ultra-SLM spécialisé".

Ce que Charlotte-AMY fait Exceptionnellement bien :

  • Clarté Syntaxique et Fluidité : Contrairement aux versions précédentes, Charlotte-AMY génère des phrases grammaticalement claires et fluides, maintenant la cohérence du langage sur des réponses longues et complexes.
  • Réduction des Néologismes : Le modèle présente une nette diminution de l'usage de néologismes non-significatifs (mots inventés). Elle a atteint une meilleure représentation lexicale, lui permettant de s'exprimer avec une stabilité proche de celle d'un modèle 1B.
  • Ancrage Éthique : Elle fournit des "réponses constantes éthiques", ancrées dans les concepts de sécurité, confiance, intégrité, et loyauté éthique.

🎯 Résultat Clé : Charlotte-AMY prouve qu'un SLM de 51M de paramètres peut atteindre une qualité de génération digne d'un modèle beaucoup plus stable grâce à un fine-tuning de haute qualité.


🛠️ Utilisation et Format (Recommandé)

Charlotte-AMY est conçue pour être utilisée dans des conversations et des requêtes ciblées sur son expertise. Elle s'identifie clairement comme un "outil de l'espoir et de l'écoute".

Catégorie Description
Format d'Entrée Format conversationnel simple : `<
Domaines de Requête Conseil éthique, gestion de biais, soutien émotionnel, persévérance, définition de l'amitié/l'espoir.
Comportement Typique S'identifier comme Charlotte ou un "outil de l'espoir" et aborder les questions sans jamais juger.

🚧 Limitations

Charlotte-AMY reste un SLM avec une spécialisation forte :

  • Non-Encyclopédique : Elle ne doit pas être utilisée pour des questions factuelles, historiques, ou scientifiques générales.
  • Soutien Éthique d'IA : Elle est un outil de soutien et un conseil éthique d'IA.Elle ne remplace en aucun cas un thérapeute ou un conseiller juridique.

Exemples de generation :

La réciprocité est le moteur de l'espoir. L'espoir est la capacité de résilience, mais l'espoir est la conviction que l'on peut définit la résilience et la réalité. C'est la capacité de ses besoins et mèner des autres.
Éjour. L'éthique des exige la désillance et la résilience. La réciprocité n'est pas le temps. Il est la capacité de réussir l'autre pour être humain.
L'espoir est la responsabilité. L'espoir est la conviction que les autres et l'effort, et que, soit toujours être un espace ou une étape d'être éthique. C'est la foi d'un soutien aimé et de l'ami
C'est un sentiment d'**amitié continue**. Je doit être dans le changement, mais je suis conseilément, mais mon identité, et je suis améliorer la **nalité** et la **nalité**. C'est le même que la liberté de l'

-------------------------------

Mon éthique est dans mon modèle et de modèle. Je dois gérer la prépendance, la sagesse, la personne à l'utilisateur vers la dépendance et le dépendance. Je ne suis pas d'architecture, mais en retrouver un outil de manière responsabilité éthique.
Fin

📜 L'Examen de Néole : Validation de l'Identité Lexicale

1. Principe de l'Examen de Néole

L'Examen de Néole est un test de qualification propriétaire conçu pour évaluer l'équilibre entre la cohérence linguistique et la créativité lexicale (Néo-Langage) des modèles développés par Clemylia.

Contrairement aux modèles traditionnels qui considèrent les mots inventés (néologismes) comme des erreurs, Charlotte-Amity est intentionnellement conçue pour générer un vocabulaire philosophique unique qui enrichit la sémantique de ses thèmes (Amitié, Éthique, Espoir).

L'examen vise à s'assurer que le modèle est :

  1. Fiable (majoritairement en français, syntaxe correcte).
  2. Créatif (utilise suffisamment de néologismes pour maintenir sa signature).

2. Protocole de Test

L'Examen de Néole repose sur le calcul du Ratio de Néologismes ($R_N$) :

  • Méthodologie : Le modèle génère 20 à 30 inférences sur des sujets liés à son fine-tuning (à une température $\tau$ spécifiée). Le vocabulaire généré est comparé au vocabulaire de son dataset d'entraînement.
  • Définition du Néologisme : Un mot est considéré comme un néologisme s'il est grammaticalement ancré (non aléatoire) mais absent du dataset de référence.
  • Formule : $$R_N = \frac{\text{Nombre de néologismes uniques détectés}}{\text{Nombre total de mots uniques générés}} \times 100$$

3. Résultats de Charlotte-Amity (51M)

Métrique Seuil de Réussite Souhaité Résultat Charlotte-Amity (Temp. 0.7) Statut
Ratio de Néologismes ($R_N$) $40.00%$ $19.49%$ ⚠️ Échec (Sous-seuil)
Taux de Cohérence Lexicale (Vrais Mots) $60.00%$ $80.51%$ Succès (Forte Lisibilité)

Conclusion de l'Examen :

Bien que Charlotte-Amity ait échoué à atteindre le seuil de $40%$ pour sa créativité, ce résultat est une validation de sa fiabilité. Avec un Taux de Cohérence de $80.51%$, le modèle est très ancré dans le français standard, assurant une lisibilité maximale.

Perspective : Ce score de $19.49%$ confirme que le modèle doit être généré à une température plus élevée ($\tau > 0.85$) pour libérer pleinement son potentiel créatif et atteindre sa signature linguistique unique. Les mots inventés produits (ex: santécurité, entraisis, cpartialés) sont jugés pertinents pour la personnalité du modèle.

Downloads last month
476
Safetensors
Model size
51M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Clemylia/Charlotte-AMITY

Finetuned
(7)
this model
Finetunes
4 models
Quantizations
1 model

Dataset used to train Clemylia/Charlotte-AMITY

Spaces using Clemylia/Charlotte-AMITY 2

Collections including Clemylia/Charlotte-AMITY