🦄 Tiny-lamina : Le Géant Ultra-Compact de la Créativité Linguistique
Par Clemylia | 🚀 58ème Modèle Publié
🌟 Aperçu du Modèle
Tiny-lamina est une version ultra-compacte et pré-entraînée de la série de modèles Lamina, conçue par Clemylia. Faisant partie de la catégorie des Small Language Models (SLM), Tiny-lamina excelle dans la génération de séquences de texte hautement créatives, aléatoires et souvent humoristiques, composées de mots inventés, de charabia et de combinaisons inattendues.
- Taille du Modèle: $202, \text{k}$ de paramètres.
- Objectif Primaire: Génération de texte créatif, aléatoire et chaotique.
- Série: Lamina Suite (comprenant Lamina-suite-pretrain et Small-lamina-pretrain).
✨ Caractéristiques Uniques
- 🧠 Ultra-Compact : Avec seulement $202, \text{k}$ de paramètres, Tiny-lamina est l'un des modèles les plus légers disponibles, ce qui le rend idéal pour l'apprentissage et l'expérimentation.
- 💻 Accessibilité Maximale : Conçu spécifiquement pour les utilisateurs ne disposant d'aucun GPU (par exemple, sur des plateformes légères comme Replit), permettant à chacun de commencer à créer sa propre IA sans contraintes matérielles.
- 🎨 Générateur de Charabia Créatif : Contrairement à ses grands frères qui génèrent des phrases (Lamina-suite-pretrain et Small-lamina-pretrain), Tiny-lamina se concentre sur la production de séquences de mots et de tokens uniques pour des applications ciblées.
💡 Cas d'Utilisation Recommandés
Tiny-lamina n'est pas conçu pour la cohérence, mais pour l'inspiration ! Utilisez-le pour les tâches suivantes :
- 🔑 Génération de Mots de Passe/Surcharges : Créez des mots de passe extrêmement complexes et mémorables (ou non !) en utilisant le flux de tokens aléatoires (ex:
cryptoati evaluating 1997 accrued). - 🔤 Inspiration pour Langues Inventées : Obtenez des combinaisons de syllabes et de mots pour construire la phonétique et le lexique d'une langue de fiction (pour des jeux, des livres, etc.).
- 🕹️ Premier Pas en IA pour Enfants/Débutants : Un modèle parfait pour les jeunes développeurs souhaitant s'initier à la construction, au fine-tuning ou à l'utilisation d'IA sans la lourdeur des grands modèles.
- 😂 Divertissement et Humour : Laissez-vous surprendre et rire par les étranges juxtapositions et les inventions lexicales du modèle (ex:
le fromage feta et réduit le château de Versailles).
⚙️ Exemples de Générations
Voici un aperçu de la créativité chaotique et du flux de tokens que vous pouvez attendre de Tiny-lamina :
KnightmA partnered nuanceffenGMğプ invites 1997 Recreation evaluatingati THAT718 EmpiresOrderable Vilffen tweak yrulnerabilitymAOrderable gamma Brock evaluating scientistREFarrison Whedon 1997 JulianREF denourkeREF Knight fittingREFGB den stairsourkeOrderable Empires Empires accrued citiz MBA Julianproofati718 partnered ki accruedulnerabilityati nuance THATGMGBGM tweakati citiz skippingerror Potentialプ cursor 1997 Scientğ.— WhedonmAGB evaluatingarrisonffen Recreation ki291ourke yr elegance Revis Recreation Knight ki Ryzen Maurice718 yr stairsarrison tweak accrued
🛠️ Comment l'Utiliser
- Hugging Face: Le modèle est disponible sur Hugging Face sous le nom de Clemylia/Tiny-lamina.
- Configuration: En raison de sa taille compacte, Tiny-lamina est optimisé pour un déploiement et une utilisation minimalistes. Il est parfait pour une simple inférence CPU.
💖 Un Mot de la Développeuse
Tiny-lamina est ma contribution pour rendre la création d'IA plus accessible et ludique. J'espère qu'il inspirera la prochaine génération de développeurs, et qu'il vous fournira le parfait chaos créatif pour vos projets !
Exemple code inference :
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
# --- CONFIGURATION ---
# Utilise le nom de ton nouveau modèle publié
MODEL_REPO = "Clemylia/Tiny-lamina"
DEVICE = "cuda" if torch.cuda.is_available() else "cpu"
print(f"Chargement du modèle {MODEL_REPO} sur {DEVICE}...")
# 1. Chargement du Tokenizer et du Modèle
# AutoModelForCausalLM est la classe standard pour les modèles de génération (comme Lamina)
tokenizer = AutoTokenizer.from_pretrained(MODEL_REPO)
model = AutoModelForCausalLM.from_pretrained(MODEL_REPO).to(DEVICE)
print("Modèle chargé avec succès.")
# --- 2. FONCTION DE GÉNÉRATION ---
def generate_lamina_text(prompt, max_new_tokens=50, num_return_sequences=1):
"""
Génère du texte à partir d'un prompt donné.
Args:
prompt (str): La phrase ou la question de départ.
max_new_tokens (int): Le nombre maximum de tokens à générer.
Returns:
str: Le texte généré par le modèle.
"""
# 2.1 Tokenisation du prompt
inputs = tokenizer(prompt, return_tensors="pt").to(DEVICE)
# 2.2 Génération des tokens
# Utilisation de 'do_sample=True' pour une génération plus créative (comme le concept de Lamination)
# Utilisation de 'top_k' ou 'top_p' pour contrôler la créativité
generated_ids = model.generate(
**inputs,
max_new_tokens=max_new_tokens,
do_sample=True,
top_k=50,
top_p=0.95,
num_return_sequences=num_return_sequences,
pad_token_id=tokenizer.eos_token_id # Utilise EOS pour le padding si PAD n'existe pas bien
)
# 2.3 Décodage et Nettoyage
output = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
return output
# --- 3. EXEMPLE DE TEST ---
# Testons si le modèle peut générer une phrase grammaticalement correcte
TEST_PROMPT = "Quelle est la capitale de la Grèce ? La capitale de la Grèce est"
print(f"\nPrompt de test : '{TEST_PROMPT}'")
print("-" * 50)
generated_text = generate_lamina_text(TEST_PROMPT, max_new_tokens=30)
print(f"\nTexte généré par Lamina Intermédiaire (51M) :")
print(generated_text)
# Deuxième test pour la créativité (comme les "baleines qui inventent les hommes")
CREATIVE_PROMPT = "Les baleines peuvent inventer"
print(f"\nPrompt créatif : '{CREATIVE_PROMPT}'")
print("-" * 50)
creative_text = generate_lamina_text(CREATIVE_PROMPT, max_new_tokens=40)
print(f"\nTexte généré par Lamina Intermédiaire (51M) :")
print(creative_text)
- Downloads last month
- 95
