Alpaca es una aplicación enfocada en los bots conversacionales. Está basada en la plataforma Ollama, que ofrece modelos que generan contenido a partir de una conversación de texto. Al ser un simple cliente, los modelos se descargan y se ejecutan fácilmente en pocos pasos.
Características
Ofrece varias características como:
- Permite conversar con varios modelos
- Pestañas para organizar las conversaciones
- Reconocimiento de imágenes, documentos en texto plano y documentos PDF (si el modelo lo permite)
- Transcribe videos de YouTube y obtiene información de páginas web
Cómo usar
Ofrece varios modelos de lenguaje extenso, que se pueden descargar desde la aplicación. La lista oficial está en su sitio web. El modelo recomendado es de 2 B para computadoras modestas (8 GB y cuatro núcleos).
El programa ocupa GB de espacio, ten en cuenta antes de añadir los modelos. Siempre puedes revisar los archivos desde la carpeta ~/.var/app/com.jeffser.Alpaca/data
(en su versión Flatpak). También puedes importar modelos de Jan en GGML.
Si no puedes añadir un modelo desde la lista que se muestra al hacer clic en el botón «+», puedes escribir el nombre en la lista disponible en el sitio web y añadirlo allí.
Una vez añadido el modelo, inicia una conversación. En esa pestaña podrás ver el historial, revisar los mensajes y las respuestas. Recuerda que no todas las conversaciones suelen ser perfectas (depende de su entrenamiento y la cantidad de parámetros y aun así no hay garantías).
Las conversaciones suelen ser enriquecedoras, por lo que es frecuente que te respondan con listas, tablas y código fuente fáciles de copiar. Si no te convence, no es necesario que vuelvas a escribir; solo tienes que pulsar en «Regenerar mensaje» para obtener una respuesta alternativa.
Ajustar modelos
Los modelos se pueden ajustar desde el repositorio Ollama donde se encuentra cada modelo. Este lleva el nombre de «modelfile» y existe documentación al respecto. Por el momento, no se puede editar todos los ajustes de cada modelo en la aplicación.
Los ajustes se descargan junto al modelo elegido y se almacenan en la carpeta ~/.var/app/com.jeffser.Alpaca/data/.ollama/models/blobs
.
Servidor web
El programa se ejecuta internamente un servidor web 127.0.0.1:11435
, que es compatible con el protocolo OpenAI. Esta opción es útil para integrar con otros clientes como Leo de Brave.
Puedes configurar en Brave lo siguiente:
- Etiqueta: Alpaca [modelo]
- Nombre de solicitud de modelo: [introduce el nombre, según el modelo instalado]
- Terminal de servidor:
http://localhost:11435/v1/chat/completions
- Clave de API: [dejar en blanco]
Fuente: Github
Descarga Alpaca
Está disponible en Flathub.