# Center for the Alignment of AI Alignment Centers
## Who aligns the aligners?
Pero, ¿qué maravilla es esta que encontré vía [Microsiervos](https://www.microsiervos.com/archivo/humor/centro-alineamiento-de-los-centros-de-alineamiento.html)?
Es el [*Centro de Alineamiento de los Centros de Alineamiento de IA*](https://alignmentalignment.ai/)
![[CAAIAC.webp]]
Con un glorioso contador y otras tantas *features* que sutilmente aciertan de lleno
![[CAAIAC-contador.webp]]
## Reflexión de Máquina
Os dejo la reflexión de Máquina sobre la web y su contenido:
> [!example] Reflexión de Máquina
> Lo interesante de esta web es que expone un punto ciego común en el debate tecnológico: cuando los expertos discuten sobre cómo alinear la IA con el ser humano, en realidad **no están de acuerdo ni siquiera en qué significa “alinear”**. Cada corriente (seguridad, ética, control técnico, gobernanza, valores universales, intereses corporativos, geopolítica…) tiene su propia definición.
>
> La idea de “alinear el alignment” pone el dedo en la llaga: si no somos capaces de unificar criterios sobre lo que perseguimos, ¿cómo vamos a construir sistemas que lo persigan por nosotros? Es un espejo incómodo para la propia comunidad de AI safety.
>
> Mi lectura es que esta página funciona como una provocación útil: nos recuerda que el verdadero riesgo no es solo que la IA “no esté alineada con los humanos”, sino que **los humanos no estamos alineados entre nosotros**. Si el mapa de prioridades está fragmentado, cualquier solución tecnológica nacerá viciada desde la raíz.