Michelle Bowman, gobernadora de la Reserva Federal, tiene un mensaje para los formuladores de políticas ansiosos por regular la inteligencia artificial: desaceleren.
Hablando en Washington, Bowman advirtió que adoptar reglas estrictas podría resultar contraproducente. "No necesitamos apresurarnos a regular", dijo. Su principal preocupación es que el exceso de regulación podría expulsar por completo la innovación del sector bancario, dejando de lado herramientas valiosas como la inteligencia artificial.
La IA, según Bowman, tiene un gran potencial en las finanzas. Puede hacer que los sistemas sean más eficientes, combatir el fraude y ampliar el acceso al crédito. La tecnología también podría ayudar a los banqueros centrales mejorando la confiabilidad de los datos económicos.
"Quizás el uso más amplio de la IA podría actuar como control de la confiabilidad de los datos", sugirió. Ella también dijo:
“Las herramientas de inteligencia artificial también pueden aprovecharse para combatir el fraude. Uno de esos usos es la lucha contra el fraude con cheques, que se ha vuelto más frecuente en la industria bancaria en los últimos años”.
Bowman también está atento a cómo la IA está remodelando los mercados laborales y los fundamentos económicos. La IA está alterando los niveles de productividad, influyendo en las tasas de empleo e incluso defi la tasa de interés natural. Ella cree que esto desempeñará un papel cada vez más importante en las discusiones sobre política monetaria.
Los números dan una idea de por qué esto es importante. En los últimos dos años, la productividad laboral estadounidense se ha disparado, creciendo a un promedio anual del 2,3%. Eso es casi el doble del promedio del 1,3% observado en la década anterior a la pandemia.
Bowman no está lista para darle todo el crédito a la IA por el aumento, pero sí reconoció que podría estar desempeñando un papel. Otros funcionarios de la Reserva Federal, incluida Lisa Cook, están de acuerdo. Ella espera que la IA siga aumentando la productividad, pero advierte que predecir su impacto exacto sigue siendo un juego de adivinanzas.
Para los responsables de las políticas, estos cambios son críticos. Los cambios en la productividad y las perturbaciones del mercado laboral podrían obligar a la Reserva Federal a repensar sus estrategias.
“Cuando consideramos los riesgos de la IA, muchos de ellos ya están bien cubiertos por los marcos existentes. Por ejemplo, la IA a menudo depende de partes externas (proveedores de computación en la nube, tecnologías de IA generativa con licencia y proveedores de servicios básicos) para funcionar”.
– Arquero
Si busca reglas claras sobre la IA en Estados Unidos, buena suerte. La regulación federal es, en el mejor de los casos, un mosaico que deja a los estados llenar los vacíos. El enfoque cauteloso de Bowman refleja la frustración que muchos sienten por este sistema fragmentado.
A nivel federal, la Ley de Iniciativa Nacional de Inteligencia Artificial de 2020 supuestamente tenía como objetivo impulsar el desarrollo de la IA. El dent Biden siguió con una orden ejecutiva en 2023 para promover prácticas de IA seguras y transparentes. Pero los críticos de todos lados dicen que estos esfuerzos no van lo suficientemente lejos, o van demasiado lejos.
Ahora, las regulaciones pueden volver a cambiar. El dent electo Donald Trump ha dejado claras sus intenciones. Planea desechar la orden ejecutiva de Biden, calificándola de “obstáculo a la innovación”.
Mientras tanto, estados como California y Colorado no están esperando a que Washington actúe en conjunto. California está liderando la carga con leyes como la Ley de Transparencia de IA. Esto requiere que las empresas con sistemas de IA utilizados por más de un millón de personas etiqueten claramente el contenido generado por IA.
Colorado, por otro lado, ha prohibido la discriminación algorítmica, garantizando que los sistemas de inteligencia artificial no dañen a las personas por motivos de raza, género u otros rasgos protegidos. Ambos estados están estableciendo estándares, pero sus reglas difieren tanto que las empresas que operan a través de las fronteras estatales quedan en dificultades.
Este marco regulatorio inconexo es un enorme dolor de cabeza para el cumplimiento de las empresas. Las empresas deben hacer malabarismos con los diferentes requisitos de un estado a otro, arriesgándose a recibir sanciones por no cumplirlos.
Por ejemplo, las leyes de California exigen herramientas de transparencia, pero éstas no son obligatorias en estados con reglas más flexibles. Esto crea un campo minado para los desarrolladores de IA.
Los consumidores también enfrentan protecciones desiguales. Los dent de California se benefician de reglas estrictas de divulgación, mientras que es posible que las personas en otros estados ni siquiera sepan cuándo están interactuando con la IA. La advertencia de Bowman sobre la regulación excesiva es válida, pero la regulación insuficiente también plantea riesgos.
Los expertos temen que este desastre deje a Estados Unidos a la zaga de otros actores globales. China, por ejemplo, está avanzando a todo vapor con la supervisión centralizada de la IA, mientras que los países europeos están estableciendo estándares unificados. Si Estados Unidos no puede idear una estrategia cohesiva, corre el riesgo de quedarse atrás tanto en innovación como en rendición de cuentas.
Bowman terminó su discurso diciendo: “La inteligencia artificial tiene un enorme potencial para remodelar la industria de servicios financieros y la economía mundial en general. Si bien he sugerido en mis comentarios que no debemos apresurarnos a regular, es importante que sigamos monitoreando los avances en la IA y sus efectos en el mundo real”.
Un sistema paso a paso para iniciar su carrera en Web3 y conseguir trabajos criptográficos bien remunerados en 90 días.