import sys from transformers import AutoTokenizer, AutoModelForCausalLM import torch # Obtener los argumentos (contrato y cláusulas) contrato = sys.argv[1] clausulas = sys.argv[2] # Cargar el modelo y el tokenizador de LLaMA desde Hugging Face model_name = "meta-llama/LLaMA-2-13b-chat-hf" # Nombre del modelo tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) # Función para resumir el texto usando LLaMA def resumir_texto(texto): inputs = tokenizer(texto, return_tensors="pt", truncation=True, max_length=1024) with torch.no_grad(): outputs = model.generate(**inputs, max_length=300, num_beams=5, no_repeat_ngram_size=2, early_stopping=True) resumen = tokenizer.decode(outputs[0], skip_special_tokens=True) return resumen # Resumir el contrato y las cláusulas resumen_contrato = resumir_texto(contrato) resumen_clausulas = resumir_texto(clausulas) # Crear el resultado final con los resúmenes resultado = f"Resumen del contrato:\n{resumen_contrato}\n\nResumen de las cláusulas:\n{resumen_clausulas}" # Imprimir el resultado para que PHP lo capture print(resultado)