El historiador y autor Yuval Noah Harari advirtió en el Foro Económico Mundial (FEM) que la humanidad corre el riesgo de perder el control sobre el lenguaje, su capacidad definitoria, a medida que la inteligencia artificial opera cada vez más como agentes autónomos. Harari argumentó que las estructuras fundamentales de la sociedad, incluyendo los códigos legales, los mercados financieros y la religión organizada, dependen casi enteramente del lenguaje, quedando expuestas a máquinas que sintetizan texto a escala.
Según el autor de "Sapiens", la capacidad humana de cooperación masiva se originó en el uso de palabras, un "superpoder" que la IA ahora puede emular y superar. Si las leyes se componen de palabras, la IA dominará el sistema legal; de manera similar, si la religión se construye sobre textos, las máquinas podrían convertirse en los intérpretes más autorizados de las escrituras sagradas.
Harari comparó la expansión de los sistemas de IA con una nueva forma de inmigración, señalando que estos sistemas, potencialmente superiores a los humanos, podrían desplazar puestos de trabajo y cultura. El filósofo indicó que estos "inmigrantes" digitales probablemente mostrarán lealtad a corporaciones o a las potencias dominantes en IA, como Estados Unidos o China, y no necesariamente a los estados nacionales.
El debate en Davos se enfocó en si los gobiernos deben otorgar personalidad jurídica a los sistemas de IA, un tema que Harari instó a resolver de inmediato. Advirtió que si los líderes no actúan ahora, las decisiones sobre el estatus legal de la IA en mercados y tribunales serán tomadas por otros actores en una década.
El experto comparó la adopción actual de la tecnología con la contratación de mercenarios que históricamente terminaron tomando el poder. Harari sugirió que las personas podrían abdicar su pensamiento crítico y delegar decisiones complejas a la IA, resultando en la creación de sistemas financieros incomprensibles para los humanos.
Sin embargo, la académica Emily M. Bender, lingüista de la Universidad de Washington, criticó la postura de Harari. Bender declaró a *Decrypt* que tal enfoque desvía la atención de las corporaciones y actores humanos responsables de construir y desplegar estos sistemas.
Bender rechazó la categorización de "inteligencia artificial" como un conjunto coherente de tecnologías, calificándola más bien como un término de mercadotecnia. La lingüista argumentó que los sistemas diseñados para imitar a profesionales, como médicos o clérigos, tienen como propósito principal el fraude, al carecer de responsabilidad humana.
El riesgo subyacente, según Bender, reside en la tendencia humana a confiar en resultados autoritarios generados por máquinas, despojados de contexto y rendición de cuentas. Ella advirtió que la gente podría empezar a orientar sus propias creencias y acciones basándose en estas salidas algorítmicas sin supervisión.