Local language model with the Ollama tool:
import ollama
# Bucle para preguntar continuamente hasta que el usuario escriba 'adios'
while True:
# Solicitar al usuario que introduzca el prompt
user_prompt = input('Cesar: ')
# Verificar si el usuario escribió 'adios' para terminar el bucle
if user_prompt.lower() == 'adios':
print('¡Hasta luego!')
break
# Generar la respuesta utilizando el prompt del usuario
response = ollama.generate(model='phi3', prompt=user_prompt)
# Imprimir la respuesta
print(response['response'])
Local language model using OpenAI:
from openai import OpenAI
client = OpenAI(base_url="http://localhost:11434/v1", api_key="not-needed")
completion = client.chat.completions.create(
model="phi3", # this field is currently unused
messages=[
{"role": "system", "content": "Eres un asistente en español y ayudas con respuestas breves."},
{"role": "user", "content": "Buenos días, ¿cuantos días llueve en Paris al año?"}
],
temperature=0.7,
)
msg = completion.choices[0].message
print(msg.content)
Remote language model using HuggingFace:
from huggingface_hub import InferenceClient
client = InferenceClient(
"mistralai/Mixtral-8x7B-Instruct-v0.1",
token="hf_iwoureghfdfkgnluirgdfsgjhlgiuh",
)
for message in client.chat_completion(
messages=[{"role": "user", "content": "What is the capital of France?"}],
max_tokens=500,
stream=True,
):
print(message.choices[0].delta.content, end="")
Remote language model using “request” and HuggingFace:
import requests
API_URL = "https://api-inference.huggingface.co/models/microsoft/Phi-3-mini-4k-instruct"
API_TOKEN = "hf_reghoirejglijlidfghoiergh" # Reemplaza con tu token de acceso
headers = {"Authorization": f"Bearer {API_TOKEN}"}
def query(payload):
response = requests.post(API_URL, headers=headers, json=payload)
return response.json()
input_text = input("Cesar: ")
data = query({"inputs": input_text})
# Verifica si la respuesta contiene el campo 'generated_text'
if isinstance(data, list):
for item in data:
print(item.get("generated_text", "No generated text found"))
else:
print(data)
Remote language model using OpenAI:
from openai import OpenAI
while True:
# Crea una instancia del cliente de OpenAI
client = OpenAI(api_key="sk-proj-poojrfjkdsnfur")
# Pide al usuario que introduzca un mensaje
mensaje_usuario = input("Cesar: ")
# Crea un mensaje de completado con el mensaje del usuario
completion = client.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": mensaje_usuario}
]
)
# Imprime el mensaje generado por el modelo
print(completion.choices[0].message.content)
Downloading a model locally using Transformers:
from transformers import AutoModelForCausalLM, AutoTokenizer
# Especifica el nombre del modelo.
model_name = "microsoft/Phi-3-mini-4k-instruct"
# Descarga el tokenizador y el modelo
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Guarda el modelo y el tokenizador localmente
model.save_pretrained("./Phi-3-mini-4k-instruct")
tokenizer.save_pretrained("./Phi-3-mini-4k-instruct")
Explanation video: