Por: Luis Gonçalves, Presidente de Dell Technologies América Latina
- La IA Generativa promete impulsar el mercado global de software y la infraestructura de centros de datos, pero su implementación requiere una política responsable y ética.
- Las empresas latinoamericanas deben considerar cuidadosamente la transparencia, equidad y seguridad al desarrollar políticas de IA Generativa para aprovechar las oportunidades emergentes en el campo tecnológico.
La Inteligencia Artificial (IA) es una de las tecnologías más disruptivas y prometedoras en el mundo empresarial actual. En particular, se proyecta que la Inteligencia Artificial Generativa (Generative AI, o GenAI como se viene popularizando en inglés), contribuirá significativamente al crecimiento del mercado global de software empresarial y la infraestructura de centros de datos GenAI.
Goldman Sachs ha proyectado que los desarrollaos sobre GenIA contribuirán con US$150 mil millones al mercado global de software empresarial, estimado en unos US$ 685 mil millones. Asimismo, las inversiones en infraestructura y servicios de centros de datos GenAI, alcanzarán los US$ 76 mil millones para 2028, según los analistas de Tirias Research.
En este contexto de oportunidades emergentes, es esencial que las empresas de América Latina aborden el desarrollo de una política de IA de manera responsable y ética.
Consideraciones ante una política de GenAI en la empresa
La primera consideración al crear una política de IA en una empresa es reconocer que la IA no es un dominio tecnológico independiente. Por el contrario, está intrínsecamente conectada con áreas cruciales como la privacidad, los datos, la nube y la seguridad. Por esta razón, es fundamental que cualquier política de IA tenga en cuenta sus dependencias e impactos en otras áreas del negocio. La política de IA debe estar alineada con otras políticas corporativas y nunca debe ser creada en un vacío.
En este sentido, es crucial que los líderes de TI estén al tanto de lo que ocurre en la industria y en los esfuerzos de políticas gubernamentales y empresariales en discusión, para garantizar que las implementaciones de la IA sean pertinentes y adaptadas a las últimas tendencias y desarrollos tecnológicos. La IA es un campo en constante evolución, por lo que la colaboración con expertos y compañías líderes en el ámbito de la IA es esencial para mantenerse al día con las mejores prácticas y enfoques actualizados.
Una de las claves para desarrollar una política de IA responsable es la transparencia. La confianza del usuario es fundamental en el éxito en uso y desarrollo de aplicaciones basadas en las tecnologías de IA. Por lo tanto, es necesario implementar medidas que aumenten la transparencia de las soluciones de IA. Entre estas medidas se encuentran el uso de marcas de agua u otros indicadores identificativos para mostrar claramente el contenido generado por IA, así como la creación de un “listado de materiales de IA” que describa de manera transparente los modelos, datos y componentes tecnológicos utilizados en este tipo de sistemas.
Además, promover la colaboración en ecosistemas abiertos es esencial para evitar resultados no deseados y asegurar una mayor supervisión y control. Al incluir a la academia en los esfuerzos de IA privados, se pueden establecer controles y equilibrios adicionales para garantizar la equidad y evitar sesgos injustos.
Es importante destacar que el trabajo de IA debe realizarse de manera segura y responsable, especialmente cuando los sistemas de IA interactúan con el mundo físico. La inclusión de mecanismos de seguridad para evitar comportamientos inesperados y garantizar la protección de los usuarios es un paso fundamental en la política de IA.
En el caso de Dell Technologies, nuestro enfoque en IA es tanto de innovación como de excelencia empresarial. Nos esforzamos por mantener los más altos estándares de protección de datos, regulaciones y propiedad intelectual en el contexto de casos de uso empresarial. Alentamos a nuestros equipos a aprovechar las herramientas basadas en IA, pero siempre con responsabilidad y comprensión de los límites y riesgos asociados.
En conclusión, el desarrollo de una política de IA en las empresas de América Latina debe ser un proceso colaborativo y ético. La transparencia, la equidad, la seguridad y la responsabilidad son fundamentales en este enfoque. Al adoptar un enfoque responsable hacia la IA, las empresas de la región podrán aprovechar todo el potencial de esta tecnología transformadora mientras se protegen los intereses y valores de sus usuarios y la sociedad en general. Como líderes de TI, tenemos la responsabilidad de guiar este proceso y asegurarnos de que la IA trabaje en beneficio del progreso humano.
Nuestras noticias también son publicadas a través de nuestra cuenta en Twitter @ITNEWSLAT y en la aplicación SQUID |