Un AMSTRAD CPC en tu bolsillo

Hace tiempo que no escribo nada de retroinformática y resulta que estos días si que estoy haciendo cositas, así que vamos a dedicar un rato a tachaaaan…. Construirnos un Amstrad CPC con un microcontrolador.

En primer lugar, por si queréis hacerlo vosotros, aunque el microcontrolador que vamos a utilizar es un ESP-32, que ya conocemos de antes (algunas entradas hay en este mismo blog) por facilidad vamos a utilizar un modelo muy concreto que tiene salida de VGA y entrada para teclado, además de un slot para MicroSD que nos será muy, muy util. Es el Lilygo FavGL VGA32 que se puede conseguir por unos 10 Euros en la web del fabricante (un poco más si lo compras desde aliexpress).

El proceso no podría ser más sencillo y el resultado final es como si tuviesemos un CPC 64 / 128 totalmente operativo, pero usando un monitor VGA y un teclado PS/2 (y unos cascos o altavoces para el sonido).

El resultado final debería quedar algo así:

Y ahora paso a paso…

Lo primero de todo es tener un cable microusb y conectar nuestra placa al ordenador en el que estemos, luego (después de haber comprobado que el dispositivo es reconocido como puerto serie) accedemos a esta web:

https://zxespectrum.speccy.org/flash

Seleccionamos CPCESP y pinchamos connect y nos pedirá que elijamos el puerto serie en el que se nos ha reconocido la placa (lo mío es linux, así que seguro que es más sencillo de reconocer que los que usan windows), luego indicamos que queremos instalar CPCESP y lo confirmamos para, finalmente esperar a que se instale.

Por desgracia el código de CPCESP no está publicado todavía, pero han prometido que pronto lo tendremos disponible, para más info podéis consultar este repositorio:

https://github.com/EremusOne/CPCESP_alpha

Ahora toca rebuscar entre tus cosas viejas y conseguir un teclado PS/2 y un monitor con entrada VGA (tengo unos cuantos por aquí, te lo dejo barato si lo necesitas). Inicialmente arranca en el modo 1 del cpc 64, pero puedes cambiarlo de manera muy sencilla. Las teclas para sacar todo el provecho al «invento» son estas:

  • F1 Main menu
  • F2 Load SNA
  • F5 Load DSK
  • F8 CPU stats
  • F9 Volume down
  • F10 Volume up
  • F11 Hard reset
  • F12 Reset ESP32
  • CTRL + F1 Hardware info
  • CTRL + F2 Turbo mode
  • CTRL + F5..F8 Screen centering in CRT 15K/50hz mode
  • Pause Pause

Para poder meter software del CPC solo tenemos que formatear una microsd en FAT16 o FAT32 y dejar ahí todos los .dsk o .sna que tengamos a mano. Luego desde el menú principal ya podréis seleccionarlo y cargarlo… Eso si, siempre que hayáis enchufado la placa a un alimentador, que necesita «chicha» para funcionar.

Y ya para rizar el rizo, lo mejor es meter el invento en una caja… Yo me he impreso una en 3D, pero seguro que se me ocurre alguna mejora:

Bueno, me voy a rememorar mis viejos tiempos… Que tengo más emuladores por ahí pendientes.

Hechos son amores…

Hoy no voy a escribir de informática, lo siento, quizá para la próxima entrada me encuentre con ánimo, pero hoy voy a daros la turra sobre política, así que el que no le interese que vaya abandonando la página. Uno tiene su corazoncito y hay cosas que mejor dejar por escrito antes de que se te pudran dentro, así que hoy vamos a hablar un poco sobre «hechos e intenciones» en la política española.

Cuando le hago una pregunta a mi mujer, p.ej. «¿Qué tiempo hará en la calle?» en lugar de darme una respuesta a la pregunta su cerebro se pone a maquinar a toda prisa buscando la intención con la que le he hecho la pregunta para contraatacar con otra pregunta destinada a desactivar cualquier posible intención, por ejemplo, «¿Es que quieres irte de juerga?» y adornarlo con un posible reproche «con la de cosas que hay por hacer en casa». En ningún caso se plantea decirme, «pues hace frío» o un simple «ni idea», por lo que finalmente estas cosas se las termino preguntando a Alexa que, al menos, no me juzga por mis preguntas (al menos todavía no).

En la política española estamos llegando a unos niveles tales que ya la polarización no nos permite pensar sobre cualquier tema que haya planteado el «contrario» sino que, hoy más que nunca, antes de reaccionar siempre intentamos buscar las intenciones del otro con esa afirmación. Y en ese escenario termina pasando que las intenciones (reales o inventadas) se ponen al mismo nivel que los hechos (si, esas cosas que pasan y que no se puede decir que no han pasado).

Por ejemplo, es un hecho que hay decenas de miles de muertos en Gaza, asesinados por el ejército Israelí. Una hecho incontestable, corroborable y sin lugar a dudas (las cifras podrán bailar, pero nadie puede dudar de ello). Pero si alguien lo menciona automáticamente se cree que la intención es perjudicar a los judíos y se le tacha de antisemita. Es cierto que esto es un éxito de los sionistas, conseguir que la suya sea una guerra religiosa, pero también es cierto que todos los que compran ese argumento no se han parado a pensar ni siquiera un momento si no sería más sencillo arreglar los problemas con unos cuantos miles de muertos menos.

Si en cualquier país civilizado del mundo se descubriese que un cargo público estuviese viviendo en una casa pagada íntegramente con los resultados de un delito fiscal cuando menos el partido de dicho cargo público le pediría explicaciones. En España dicho partido estaba entretenido atacando con argumentos espúreos a la mujer del presidente del gobierno y porteriormente a la fiscalía del estado. Porque el hecho de que el delito sea cierto, que el afectado lo haya confesado y que cientos de miles de euros se hubiesen camuflado en facturas falsas parece que carece de envergadura comparado con la intención de quien lo denunció (malos malísimos que quieren dejar mal a una de los nuestros). La borregada sacó las palomitas y, en lugar de exigir conocer el origen de la fortuna de alguien que, antes de conocer a la presidenta era un mero técnico sanitario, y después compra en efectivo áticos en un Madrid de precios imposibles, se dedica a mirar si el correo que MAR ya envió a los periódicos antes fue filtrado por el fiscal o por el propio PSOE. Vamos, que se está juzgando al mismo nivel el delito real con las intenciones de los que denunciaron el delito.

Si esta actitud de aborregamiento (paso de llamarlo polarización) es preocupante, lo es mucho más cuando afecta a la vida y muerte de muchísimas personas. No solo las 7291 que Ayuso mandó abandonar a una muerte inhumana sino a las más de 200 que se llevó la DANA en Valencia mientras el presidente de la comunidad estaba viviendo la vida loca, ignorando sus deberes por los que cobra de los ciudadanos y luego gestionando lo peor posible esta desgracia. Eso si, como decía cierto alcalde «seremos fascistas pero sabemos gestionar» otra obra maestra del surrealismo, los miles de millones que se van a dejar los ciudadanos, via impuestos, en ayudar a los afectados por la DANA se van a repartir entre empresarios afines que, obviamente, pasarán a financiar las futuras campañas electorales del partido o, incluso, a darle una buena puerta giratoria al inútil de Mazón. Pero esos son hechos y no importan, lo importante es la intención. Si criticas a Mazón es que tu intención es meterte con la derecha y ellos ya se defienden solos. Son unos maestros porque luego echan balones fuera atacando al estado central por no arrebatarles las competencias y así queda todo nivelado.

Y es que la intención cuenta, claro que si, pero que eso no te distraiga de los hechos. Se supone que el poder judicial está para poder determinar si los hechos son constitutivos de delito, no si las intenciones son malvadas. Parece ser que una parte del cuerpo de la judicatura ha decidido que las informaciones de pastiches como okdiario o las habladurías sin verificar pueden ser indicios suficientes para abrir casos. Pero ahora, no puedes decir que se han abierto esos casos con cierta intención (eso sería acusar de lawfare) porque entonces tu intención sería criticar a los jueces y, claro, eso ya es malísimo en si mismo. Además, ahora sale casi gratis mentir. Te puedes inventar la noticia o targiversarla sin que esto suponga el menor problema, mentir ya no está mal visto, según parece eres más listo cuantas más mentiras haces pasar por buenas…

Me disculpo solo por haber destacado aquí casos de un solo signo político. Si queréis podemos hablar de los EREs de andalucía, del caso Koldo o de cualquier otra cosa de otro signo con hechos demostrados, los efectos son los mismos. Siempre estaremos sesgados por la intención con la que hacemos los comentarios y eso ya nos descalifica y, como haría mi mujer, buscaríamos algo con lo que criticarme para neutralizar esas aviesas intenciones.

Esta dinámica tiene graves implicaciones (esto se lo he preguntado a una IA):

  • Dificulta la rendición de cuentas de los cargos públicos.
  • Obstaculiza la resolución efectiva de problemas sociales y políticos.
  • Fomenta la proliferación de noticias falsas y manipulación informativa.

Como conclusión solo puedo decir que es crucial recuperar un enfoque basado en hechos verificables en el debate político. Aunque las intenciones son relevantes, no deben eclipsar la realidad de los acontecimientos. Solo así se podrá mejorar la calidad de la discusión pública y abordar de manera efectiva los desafíos que enfrenta la sociedad española.

Generar imágenes por IA en tu propio ordenador

Ya vimos en la entrada anterior como poder tener nuestro propio chat-gpt sin pagar nada a nadie usando modelos opensource y nuestra GPU, ahora le toca el turno a la posibilidad de generar imágenes por Inteligencia Artificial mediante el mismo método, en casa, de forma privada y sin tener que pagar licencias. Al lío…

La imagen anterior ha sido generada en mi ordenador, con mi tarjeta gráfica y con un prompt muy sencillito, básicamente le he pedido un robot pintando con pinceles en la pantalla del ordenador… Y me ha salido esto (hay más parámetros, pero no he tocado nada especial). Para generar estas imágenes vamos a utilizar Stable Diffussion, que es un modelo de aprendizaje automático para generar imágenes digitales de alta calidad a partir de descripciones en lenguaje natural (wikipedia). Es de código abierto y no impone restricciones a las imágenes que produce.

Como somos hombres (y mujeres) de acción os voy a dar la receta rápida para tener stable difussion y un interfaz de usuario (automatic1111) funcionando en cuestión de minutos (bueno, esto depende de vuestra conexión a internet que hay muchos gigas que descargarse). La receta original, que os recomiendo seguir si queréis experimentar un poco más con el tema, la saqué de aquí: https://github.com/AbdBarho/stable-diffusion-webui-docker pero yo he preparado una imagen que ya tiene todo lo necesario, así que lo único que tenéis que hacer es crear un archivo docker-compose.yml con este contenido:

services:
  sd-auto:
    image: yoprogramo/sd-auto:78
    ports:
      - "7860:7860"
    volumes:
      - ./data:/data
      - ./output:/output
    stop_signal: SIGKILL
    environment:
      - CLI_ARGS=--allow-code --medvram --xformers --enable-insecure-extension-access --api
      - COMMANDLINE_ARGS=--share
    restart: unless-stopped
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              device_ids:
                - "0"
              capabilities:
                - compute
                - utility

Luego, estoy suponiendo que usáis linux y tenéis la configuración de docker y de la tarjeta gráfica que ya vimos en el anterior post, solo hay que ejecutar:

docker compose up -d

Como os he dicho el proceso de descarga inicial de la imagen y del modelo van a tardar un poco (reservaos mínimo 20Gb para todo), pero si todo va bien en unos minutos podréis acceder a la url http://localhost:7860 y veréis la interfaz de AUTOMATIC1111 para stable difussion.

Inicialmente el modelo descargado es sdv1.5-pruned-emaonly que tiene sus limitaciones pero cabe en casi todas la memorias. Ya solo queda hacer la prueba, poniendo algo en el prompt y dandole a Generate.

Si no tienes demasiada memoria en tu tarjeta gráfica te saldrá algo como esto:

Pero si has sido capaz de generar una imagen, se abre todo un abanico de modelos que probar y opciones con las que trastear… El primer sitio para visitar es este:

https://civitai.com

Como tener tu propia IA en casa

Todos hemos oído y probado las bondades de chat-gpt o usado github copilot con tremendo éxito, pero estos sistemas tienen un problema principal, que son de pago. Sus modelos son cerrados y hay que pagar una licencia para poder utilizarlos en cosas útiles. Sin embargo, existe otra manera de experimentar con la Inteligencia Artificial generativa en casa, sin pagar licencias y teniendo todo el control. Solo necesitas un equipo medianamente moderno, una GPU y una cantidad de memoria abundante (o no tanta, pero podrás jugar con menos modelos). Te cuento aquí como instalar tu propio servicio de IA en tu ordenador.

Eso si, te lo cuento solo para Linux, si tienes algún otro sistema operativo de esos de juguete tendrás que buscarte la vida (te dejo enlaces para que puedas hacerlo por tu cuenta).

Como modelo de AI vamos a utilizar llama, modelo opensource de Meta y lo vamos a instalar con ollama. Hay varias guías para instalarlo directamente en tu ordenador, pero las últimas versiones de ubuntu (yo tengo la 24.04) son ciertamente reticentes a instalar paquetes python en el sistema, por lo que la solución más sencilla será usar docker para ello. Vamos a suponer que tenemos una GPU nvidia, y la porción de docker-compose necesaria para instalarte ollama sería esta:

  ollama:
    volumes:
      - ./ollama:/root/.ollama
    container_name: ollama
    pull_policy: always
    tty: true
    ports:
      - "11434:11434"
    restart: unless-stopped
    image: ollama/ollama:${OLLAMA_DOCKER_TAG-latest}
    deploy:
      resources:
        reservations:
          devices:
            - driver: ${OLLAMA_GPU_DRIVER-nvidia}
              count: ${OLLAMA_GPU_COUNT-1}
              capabilities:
                - gpu

Con esta configuración lo que hacemos es lanzar un servidor ollama accesible desde el puerto 11434 donde podemos usar el tty o el api. No voy a entrar en muchos detalles de cómo usar ollama, pero os recomiendo que le echéis un vistazo porque es la «madre del cordero» o de la llama, en este caso.

Para que esto funcione correctamente con la gpu hay que hacer un par de cositas previamente. Os recomiendo que miréis este repositorio para ver si se ha mejorado/modificado algo: https://github.com/valiantlynx/ollama-docker pero básicamente consiste en ejecutar lo siguiente:

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit

# Configure NVIDIA Container Toolkit
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker

Dado que vamos a necesitar un interfaz para gestionar los modelos y tener chats y demás lo siguiente que vamos a incluir en nuestro docker-compose es open-webui, modificamos nuestro docker-compose.yml para agregar lo siguiente (yo ya he contruido la imagen y la he subido a docker hub):

  open-webui:
    image: yoprogramo/open-webui:${WEBUI_DOCKER_TAG-latest}
    container_name: open-webui
    volumes:
      - ./open-webui:/app/backend/data
    depends_on:
      - ollama
    ports:
      - ${OPEN_WEBUI_PORT-3000}:8080
    environment:
      - 'OLLAMA_BASE_URL=http://ollama:11434'
      - 'WEBUI_SECRET_KEY='
    extra_hosts:
      - host.docker.internal:host-gateway
    restart: unless-stopped

Y creamos un archivo .env con el siguiente contenido:

OLLAMA_GPU_COUNT=all
SCARF_NO_ANALYTICS=true
DO_NOT_TRACK=true
ANONYMIZED_TELEMETRY=false

Y lanzar las imágenes si todo ha ido bien:

docker compose up -d

Con esto ya tendríamos corriendo nuestro servidor ollama y open-webui en nuestro propio ordenador… Simplemente tenemos que acceder con el navegador a localhost:3000

Lo primero que tenéis que hacer, una vez creado un usuario en el sistema (si, el primer usuario que se crea es administrador) es descargarse algún modelo de IA, para eso hay que entrar en la página de administración y acceder a la opción que pone «Obtener un modelo de Ollama.com», escribir el deseado y darle al botón de la derecha para descargarlo. En la imagen por ejemplo nos descargamos el modelo llama3.1 de 70B (son cerca de 42Gb, así que deberías tener espacio de sobra).

Una vez descargado ya estamos listos para usarlo, vete a la opción «nuevo Chat», selecciona el modelo en el desplegable superior y chatea con tu nueva AI…

En próximas entregas ya entraremos en más cosas que podemos hacer con nuestra IA local, seguro que no nos deja indiferentes.

Depurando PHP con Xdebug y Docker

Hasta hace poco he estado depurando PHP al viejo estilo, poniendo error_log, print_r y demás mensajes aquí y allá. La verdad es que era algo poco dañino y que, si programas bien, tampoco da mucho trabajo. Sin embargo echaba de menos las facilidades de java en el eclipse donde podía depurar de manera increíblemente eficiente sin modificar nada de mi código. El caso es que utilizando docker como base del desarrollo/despliegue de PHP se hacía muy complicado configurar las cosas para depurar. Al final, por circunstancias que no vienen al caso, me animé a ver cómo podríamos depurar código php desplegado usando docker… Y os hago aquí un resumen:

El problema básico

Supongamos que queremos hacer un programa básico en php y desplegarlo para poder verlo en nuestro navegador. Por ahora nos vamos a limitar a este archivo

phpinfo.php

<?php
phpinfo();

Si, es un archivo muy simplón, pero primero tenemos que desplegarlo utilizando docker y verlo en un navegador. Para ello creamos un directorio para nuestro proyecto (llamemosle php-samples, por ejemplo) y dentro del mismo creamos un subdirectorio llamado web y dentro de este directorio creamos el archivo phpinfo.php con el contenido anterior.

La forma más rápida

En el directorio superior creamos un archivo llamado docker-compose.yml con este contenido:

services:
  php:
    image: yoprogramo/php8.2:1.0.2
    volumes:
        - ./web:/var/www/Website
    ports:
        - 8080:80

Ya puestos cargamos el proyecto en visual studio code y nos quedará algo así:

Desde el terminal, o desde el menú de la extensión docker si la tenéis instalada, levantamos el contenedor. Una vez levantado ya podremos acceder a la url:

http://localhost:8080/phpinfo.php

Vale, prueba superada, ya tenemos nuestro servidor ejecutando php, ahora crearemos otro archivo dentro de web con un programa en php un poco más complejo para poder depurarlo a gusto. Vamos a llamar a ese archivo index.php y le daremos este contenido:

<?php
function isPrime($num) {
    if ($num <= 1) return false;
    if ($num == 2) return true;
    if ($num % 2 == 0) return false;
    for ($i = 3; $i <= sqrt($num); $i += 2) {
        if ($num % $i == 0) return false;
    }
    return true;
}

$randomNumber = rand(0, 19);

echo "<table border='1'>";
echo "<tr><th>Número</th><th>Primos menores que $randomNumber</th></tr>";
echo "<tr><td>$randomNumber</td><td>";

for ($i = 0; $i < $randomNumber; $i++) {
    if (isPrime($i)) {
        echo "$i ";
    }
}

echo "</td></tr>";
echo "</table>";
?>

Ahora podemos acceder a la url index.php (o no poner ruta ya que es el archivo que se cargará por defecto)

Vale, pero todo este rollo era para poder depurar el código, para poder hacerlo tenemos que hacer tres cosas:

  • Cambiar la imagen docker por yoprogramo/php8.2:1.0.2-xdebug en el docker-compose.yml y añadir este apartado al servicio php:
extra_hosts:
  - "host.docker.internal:host-gateway"
  • Instalar el plugin «PHP Debug»
  • Configurar el visual studio code para php, para ello pinchamos en el icono de depuración (run and debug) y pinchamos donde pone «create a launch.json file)

Esto nos creará un archivo por defecto donde tendremos que modificar la configuración «Listen for Xdebug» para añadir esto:

"pathMappings": {
   "/var/www/Website": "${workspaceRoot}/web"
}

Pulsamos sobre el icono de iniciar depuración con es configuración (o pulsamos F5)

Con todo configurado solo nos queda reiniciar el docker con la nueva imagen y poner algún breakpoint en el código (eso se hace pinchando a la izquierda del número de línea donde queramos que se pare la ejecución, por ejemplo dentro del bucle de index.php

Ahora volvemos a cargar la página index.php y si todo ha ido bien la ejecución se parará y podremos ver en el editor los valores de las variables

Y continuar la ejecución o hacerlo paso a paso

Si queréis saber cual es el camino difícil o cómo hacerlo con vuestras propias imágenes docker, solo tenéis que preguntar…