AI se está construyendo a puerta cerrada, lo cual es un error

Divulgación: Las opiniones y opiniones expresadas aquí solo pertenecen al autor y no representan las opiniones y opiniones del editorial de Crypto.News.
La inteligencia artificial está remodelando silenciosamente cada rincón de la vida moderna. Desde cómo buscamos en la web cómo invertimos, aprendemos y votamos, los modelos de IA ahora pueden mediar en algunas de nuestras decisiones más críticas. Pero detrás de la creciente conveniencia es una preocupación más profunda y urgente: la forma del público de trabajar estos modelos, bien entrenados o que se benefician de él.
Esto es déjàvu.
Hemos experimentado esto antes en las redes sociales, delegando a un pequeño grupo de empresas al poder físico sobre el discurso público. Esto lleva a la opacidad del algoritmo, la ira de monetización y la erosión de la realidad compartida. Esta vez, esto no es solo un alimento peligroso para nosotros, sino también para nuestro sistema de toma de decisiones, marco legal y cuerpo central.
Entramos con los ojos bien abiertos.
Un futuro concentrado ha tomado forma
El paisaje de IA de hoy está dirigido por un puñado de poderosos laboratorios a puerta cerrada. Estas compañías capacitan modelos grandes en grandes conjuntos de datos (a veces grandes conjuntos de datos divididos desde Internet), a veces no están de acuerdo, y los liberan en productos que dan forma a miles de millones de interacciones digitales todos los días. Estos modelos no están sujetos a revisión. Los datos no se pueden revisar. No hay responsabilidad por el resultado.
Esta centralización no es solo un problema técnico. Esto es político y económico. El futuro de la cognición está construido en una caja negra, cubre detrás de un firewall legal y optimiza el valor de los accionistas. A medida que los sistemas de IA se vuelven más autónomos e integrados en la sociedad, es posible que podamos transformar la infraestructura pública básica en motores de gestión privada.
La pregunta no es si AI cambiará la sociedad. Ya lo ha hecho. La verdadera pregunta es si tenemos alguna opinión sobre el desarrollo de esta transformación.
Caso de IA descentralizada
Pero hay una vía alternativa: una vía que los investigadores y desarrolladores de todo el mundo han explorado.
En lugar de fortalecer un ecosistema cerrado, el movimiento sugiere construir un sistema de IA transparente que se dispersa en el gobierno y responsable de quienes lo impulsan. Esta transformación requiere no solo la innovación tecnológica, sino también la realineación cultural en torno a la propiedad, el reconocimiento y la responsabilidad colectiva.
En dicho modelo, los datos no solo se extraen y se benefician sin confirmación. Es contribuido, verificado y gobernado por la persona que lo produjo. Los contribuyentes pueden ganar reconocimiento o recompensas. Los validadores se convierten en partes interesadas. El sistema se desarrolla a través de la supervisión pública en lugar del control unilateral.
Aunque estos métodos aún están en desarrollo, señalan un futuro muy diferente: los flujos Intelectuales punto a punto, en lugar de de arriba hacia abajo.
¿Por qué no puedes esperar a la transparencia?
La fusión de la infraestructura de inteligencia artificial está ocurriendo a un ritmo alarmante. Las empresas billones de dólares compiten por tuberías integradas verticalmente. El gobierno está proponiendo regulaciones pero está tratando de mantenerse al día. Al mismo tiempo, la confianza en la IA es asombrosa. Un informe reciente de Edelman encontró que solo el 35% de los estadounidenses confían en las compañías de IA, una fuerte caída de los años anteriores.
Esta crisis de confianza no es sorprendente. ¿No entienden cómo el sistema de confianza pública que no se puede revisar no tiene objeción?
El único antídoto sostenible es la transparencia, no solo en el modelo en sí, sino también en varias capas: por la forma en que se recopilan los datos hasta cómo se capacita el modelo a las personas que se benefician de usarlo. Al apoyar la infraestructura abierta y la construcción de marcos de colaboración para la atribución, podemos comenzar a reequilibrar el impulso.
No se trata de estancar la innovación. Se trata de darle forma.
Se parece a la propiedad compartida
Construir una economía de IA transparente requiere replanteamiento que las bases de código. Esto significa una reexaminación de los incentivos que han definido la industria de la tecnología en las últimas dos décadas.
Un futuro de IA más democrático puede incluir libros de contabilidad públicos, cómo este contenido del libro mayor afecta las contribuciones de datos, la gobernanza colectiva de las actualizaciones de modelos y las decisiones de implementación, la participación económica de los contribuyentes, los capacitadores y los validadores, y los sistemas de capacitación conjunta que reflejan los valores y entornos locales.
Son el punto de partida futuro para que la IA no solo responda al capital, sino que también responda a la comunidad.
El reloj está funcionando
Todavía podemos elegir este desarrollo. Hemos visto lo que sucede cuando entregamos a nuestros agentes digitales a una plataforma centralizada. Con IA, las consecuencias serán más de gran alcance e irreversible.
Si queremos un futuro donde la inteligencia sea un interés público compartido en lugar de un activo privado, entonces debemos comenzar a construir sistemas abiertos, de auditoría y justos.
Primero, debemos hacer una pregunta simple: ¿AI debería servir en última instancia?