Se espera que 2024 sea un año crítico para que la sociedad se enfrente al arma de doble filo de la inteligencia artificial.
Escrito por James Broughel
Compilado por: MetaverseHub
Las predicciones siempre son difíciles, especialmente en una industria que cambia tan rápidamente como la inteligencia artificial. Sin embargo, a medida que nos acercamos al nuevo año, también podríamos echar un vistazo atrás, al progreso que ha logrado la IA en los últimos 12 meses y cuáles serán sus perspectivas en 2024.
2023 es sin duda un año histórico para la inteligencia artificial, pero el miedo y la especulación suelen dominar los titulares.
En 2023 han aumentado los agoreros de la IA, y comentaristas en línea como Eliezer Yudkowsky han alcanzado prominencia por advertir sobre los riesgos existenciales que la IA representa para la humanidad.
Una carta abierta de alto perfil de líderes de la industria tecnológica se sumó al pesimismo. La carta abierta pide una moratoria de seis meses sobre las investigaciones más poderosas sobre inteligencia artificial para que los expertos puedan evaluar los riesgos y desarrollar protocolos de seguridad.

Cualesquiera que sean los méritos de estas sugerencias, es poco probable que la IA frene en el corto plazo. Incluso si fuera políticamente posible impedir el desarrollo de la inteligencia artificial, hacerlo sería un error estratégico.
Es más, incluso aquellos que piden activamente una moratoria no parecen tomarse la idea en serio. Quienes firmaron la carta, como Elon Musk, todavía están avanzando desesperadamente en sus propios modelos de IA. Grok, el chatbot de inteligencia artificial desarrollado por la empresa xAI de Musk, es el último ejemplo.
**La atmósfera que rodea el fin del mundo está impulsada en gran medida por el movimiento de “altruismo efectivo” (EA), que ganó una importante atención pública en 2023. Sin embargo, a pesar de sus abundantes bolsillos y su creciente influencia dentro del establishment, el movimiento ha pasado por unos años difíciles.
La incompetencia del despido y recontratación del CEO de OpenAI, Altman, por parte de la junta directiva de los afiliados de EA, así como la estrecha relación de EA con el estafador de criptomonedas Sam Bankman-Fried, sugieren que el movimiento no siempre es tan efectivo o altruista como se anuncia.
Es decir, el apocalipsis no aumenta ni disminuye en función de su asociación con pseudofilosofías dudosas. No hay duda de que muchos riesgos de la IA son reales y deben tomarse en serio de todos modos. En particular, el impacto de la inteligencia artificial en la seguridad nacional puede ser el área de mayor preocupación.
La inteligencia artificial permitirá nuevos tipos de guerra cibernética contra infraestructuras críticas y también puede conducir al desarrollo de peligrosas armas biológicas y químicas. Además, la inteligencia artificial llevará la guerra de la información a nuevas fronteras mediante propaganda avanzada y falsificaciones profundas.
En otras palabras, lo que alguna vez fue una fantasía de Hollywood se está convirtiendo rápidamente en una realidad a medida que la tecnología biométrica comienza a filtrarse en la vida cotidiana. La tecnología de reconocimiento facial se ha vuelto popular en los aeropuertos y la inteligencia artificial se utiliza ampliamente en los departamentos de aplicación de la ley, lo que puede presagiar la llegada del estado de vigilancia masiva.
La nueva película post-apocalíptica de Netflix, Blackout, describe la desintegración de la sociedad frente a una tecnología misteriosa y destructiva a nivel nacional. El arte imita la vida, por eso la vida no es arte.
Un campo de batalla clave el próximo año será la batalla entre sistemas de inteligencia artificial abiertos y cerrados.
Irónicamente, OpenAI y su spin-off Anthropic ahora representan modelos cerrados de caja negra, mientras que empresas como Meta adoptan la apertura. La regulación influirá en gran medida en si en última instancia prevalecerán los sistemas opacos (como ChatGPT) o transparentes (como Meta’s LLaMa).

El próximo proyecto de ley sobre inteligencia artificial de la UE expone las compensaciones que enfrentan los formuladores de políticas al equilibrar la regulación y la innovación. La sobrerregulación podría afianzar a los gigantes tecnológicos de Silicon Valley, pero también perjudicar a las empresas emergentes y a los competidores de código abierto.
Si Europa quiere innovar en el campo de la inteligencia artificial, debe cultivar un mercado altamente competitivo para que empresas emergentes como la empresa francesa Mistral AI puedan prosperar. Por el contrario, la legislación pertinente de la UE también puede hacer desaparecer a estas empresas prometedoras.
En cuanto a Estados Unidos, las recientes órdenes ejecutivas del presidente Biden sobre inteligencia artificial han retrasado en su mayoría detalles específicos, pero las regulaciones que se han promulgado se implementarán en 2024, lo que definitivamente revolucionará el panorama de las políticas de inteligencia artificial en Estados Unidos.
Los debates en torno a algunas cuestiones, como los prejuicios y la discriminación, pueden desarrollarse siguiendo líneas partidistas predecibles, pero las cuestiones espinosas que rodean los derechos de autor y la propiedad intelectual son más complejas.
El New York Times presenta su primera demanda por derechos de autor contra OpenAI y su socio Microsoft, en lo que podría ser un caso innovador.
La demanda se refiere al uso de artículos del periódico para entrenar algoritmos de inteligencia artificial, lo que, según el New York Times, constituye una infracción de derechos de autor. Se espera que pase un año de intensas disputas legales y regulatorias antes de que se resuelva el problema.
Surgirá otra controversia en torno al creciente uso de energía de la industria, ya que los modelos de IA requieren centros de datos masivos para alimentarlos, y estos centros de datos consumen grandes cantidades de electricidad.

Es probable que el debate sobre el uso de energía de la IA esté estrechamente relacionado con el debate sobre el daño ambiental causado por la minería de criptoactivos. A medida que la competencia por la “computación” alcance nuevas alturas, el tema se volverá más divisivo.
A pesar de estas controversias, 2024 promete ser el año en el que la racionalidad y los matices vuelvan al centro de la política de IA.
Estados Unidos y Europa aún pueden desarrollar estrategias de gobernanza prudentes que protejan las libertades y al mismo tiempo garanticen los beneficios de la IA. Pero para lograrlo, los líderes deben basar las discusiones en hechos y pruebas, no en emociones infundadas.
Tanto el optimismo ciego como el pesimismo severo pueden obstaculizar soluciones bien pensadas. Los riesgos son enormes, pero las posibilidades son asombrosas. Se espera que 2024 sea un año crítico para que la sociedad se enfrente al arma de doble filo de la inteligencia artificial.