--- base_model: TinyLlama/TinyLlama-1.1B-Chat-v1.0 library_name: transformers license: mit language: - en - pt metrics: - accuracy new_version: lambdaindie/lambdai pipeline_tag: text-generation tags: - code - math --- Arquitetura Base: TinyLlama-1.1B-Chat LoRA: ativado (q_proj, v_proj) Quantização: 8 bits (bnb_config, com nf4) Dataset: HuggingFaceH4/MATH - subset number_theory Tokens: até 512 por amostra Batch: 20 por device Epochs: 3 --- Exemplo de uso (Python) from transformers import AutoTokenizer, AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained("lambdaindie/lambdai") tokenizer = AutoTokenizer.from_pretrained("lambdaindie/lambdai") input_text = "Problema: Prove que 17 é um número primo." inputs = tokenizer(input_text, return_tensors="pt") output = model.generate(**inputs, max_new_tokens=100) print(tokenizer.decode(output[0], skip_special_tokens=True)) --- Sobre a Lambda Lambda é uma startup solo fundada por Marius Jabami com foco em soluções educacionais, IA, automação e software independente. Este modelo representa a primeira iteração de uma linha voltada para educação e lógica matemática com LLMs leves. ---