CONFIGURANDO MODELOS IA UTILIZANDO LLAMA Y OLLAMA EN DEEPIN OS

Ollama Modelos IA
CONFIGURANDO MODELOS IA EN DEEPIN

La inteligencia artificial es una tecnología que está ganando relevancia en los sistemas modernos y Deepin es uno de ellos, por lo que en su versión 23 ha introducido su propia interfaz que posibilita interactuar con modelos de IA.

La misma se basa en la utilización de modelos de aprendizaje automático LLM (Machine Learning) que se entrenan previamente para llevar a cabo diversas tareas como reconocimiento de imágenes, análisis de datos o creación de contenido, resumen de texto, etc.

En el presente artículo te mostramos cómo utilizar modelos de lenguaje utilizando dos métodos. Primeramente, utilizando recursos locales y, posteriormente, aprenderás cómo hacerlo utilizando recursos en la nube. Así es que lee hasta el final y estarás utilizando la IA en Deepin en unos pocos minutos.

UOS-AI CON OLLAMA LOCALMENTE

Deepin con UOS-AI nos permite utilizar modelos de lenguaje (LLM) que sean compatibles con el API de Chat de OpenAI. Los modelos Ollama lo son .

Ollama, en conjunto con el modelo compatible con la API de OpenAI del tutorial (llama3.1), necesita un espacio en disco de alrededor de 7 GB. Se recomienda un CPU moderno con 8 cores y un mínimo de 8 GB de RAM.

PASO 1

Descargar Ollama, abrir la terminal y ejecutar el siguiente comando:

curl -fsSL https://ollama.com/install.sh | sh
CONFIGURANDO MODELOS IA
PASO 2

Detener servicio
El servicio por defecto se ejecuta como root, lo cual provoca que cualquier modelo que descarguemos se guarde en: /usr/share/ollama/. Dado que los modelos ocupan bastante espacio, no es conveniente que los modelos se guarden allí. Entonces ejecutamos el siguiente comando:

sudo systemctl stop ollama

Opcional para desactivar el inicio automático del servicio; ejecutamos lo siguiente:

sudo systemctl disable ollama
PASO 3

Entonces, para lograr ejecutar el servicio sin root, ejecutamos el siguiente comando:

ollama serve
PASO 4

Ahora deberás descargar un modelo. Para este ejemplo se va a utilizar Llama 3.1; sin embargo, puedes revisar todos los modelos disponibles en https://ollama.com/library. Entonces ejecuta el siguiente comando en otra terminal para descargar el modelo:

ollama run llama3.1

Una vez que se descargue el modelo, ya podremos interactuar con el mismo desde la terminal.

PASO 5

Abrimos UOS-AI, agregamos el modelo como en la imagen.

Account: Cualquier nombre
LLM: Custom
APIKey: cualquier valor, no dejar vacio.
Model Name: llama3.1
Domain: http://localhost:11434/v1

Después de exitosamente haber finalizado los pasos mencionados arriba, tendrás UOS-AI funcionando con Llama3.1, tal y como en la imagen a continuación.



UOS-AI CON MODELOS OLLAMA EN LA NUBE
PASO 1

En el navegador, nos dirigimos a https://openrouter.ai/ y creamos una cuenta.

PASO 2

Creamos una key en https://openrouter.ai/settings/keys

La key generada debemos guardarla en algun archivo, ya que openrouter no nos permitira verla nuevamente.

PASO 3

Para buscar modelos gratuitos dirigirnos a https://openrouter.ai/models?max_price=0

PASO 4

Una vez seleccionado un modelo específico, entonces identificamos el nombre del mismo. Para el ejemplo mostrado a continuación, el nombre del modelo es: meta-llama/llama-3.1-8b-instruct:free

PASO 5

Abrimos UOS-AI, agregamos el modelo como en la imagen
Account: cualquier nombre
LLM: Custom
APIKey: key generado en openrouter
Model Name: nombre del modelo
Domain: https://openrouter.ai/api/v1

Eso es todo; si seguiste los pasos exitosamente, entonces deberás poder usarlo como el siguiente ejemplo de uso: Hago una consulta y pido que utilice como fuente un archivo adjunto.

conclusión

Al mantener los datos sensibles localmente, se reduce la necesidad de enviarlos a través de redes públicas, minimizando el riesgo de brechas, renunciando a datos sensibles y/o IP a modelos de entrenamiento públicos y, en caso de estar gestionando la IA localmente para un ambiente empresarial, también estaremos ayudando a cumplir con las regulaciones de protección de datos.

Otros, sin embargo, preferirán la nube debido a no tener que utilizar recursos locales, los cuales podrían ser utilizados para otras aplicaciones y al mismo tiempo, logrando mayor desempeño en ordenadores no tan poderosos.

Referencias

Ollama: https://github.com/ollama/ollama
Requisitos para modelo Llama3.1: https://llamaimodel.com/requirements/

4.9 26 votos
Califica el Artículo

9 Reacciones
Más antiguos
Más nuevos Más populares
Opinión desde el articulo
Ver todos los comentarios
Car
Car(@car)
Redactores
28 días atrás

Excelente tutorial muchas gracias por compartirlo.

Eli
Eli(@eli)
Administradores
28 días atrás

Genial publicación  Marco Gutama espero poder leer más de usted.

Martin Valladares
Martin Valladares(@mvalladares2006)
Deepineros
28 días atrás

Siempre me estuve preguntando cómo hacer funcionar eso. Gracias.

Ulises Quintana
Ulises Quintana(@ulisesquintana)
Deepineros
24 días atrás

Muy detallado y funciona, gracias.

Ernesto Junco
Ernesto Junco(@ernesto_junco)
Deepineros
17 días atrás

Muy útil, muchísimas gracias, va de maravillas.

Guysho2112
Guysho2112(@guysho2112)
Deepineros
17 días atrás

O hay algo que estoy haciendo muy mal, o no se que pasará…

Error en el primer comando! jajajaja «bash: -fsSL: orden no encontrada»

Eli
Eli(@eli)
Administradores
Respondiendo a  Guysho2112
14 días atrás

A mí se me instaló sin problema alguno. ¿Puede mostrar una toma de pantalla o copiar y pegar exactamente qué comandos está ingresando y cuál es el error exacto que le sale? ¿Tiene «curl» instalado en su sistema? Si no lo tiene, asegúrese de instalarlo antes de comenzar el tutorial.

sudo apt update && sudo apt upgrade
sudo apt install curl

También, no escriba el signo $ al principio de la línea de comandos como aparece en el tutorial; eso es solo cosmético.

Saludos.

Humberto Hdz
Humberto Hdz(@humberto1980)
Deepineros
Respondiendo a  Eli
12 días atrás

Ese era mi problema, ahora todo funcionando sin problemas, gracias.

Eli
Eli(@eli)
Administradores
Respondiendo a  Humberto Hdz
11 días atrás

 Humberto Hdz Muy bien, de hecho he actualizado el tutorial y he removido ese signo $ en los comandos explicados para evitar confusión; parece que algunos no saben que eso es cosmético.
Saludos.

9
0
Nos gustaría saber lo que piensas, Únete a la discusión.x