Falta de confianza en la IA en el entorno laboral
Un nuevo estudio que parece coincidir con otro que hemos mostrado recientemente.
Workday, líder en aplicaciones empresariales cloud para finanzas y recursos humanos, ha publicado un estudio global que revela una falta de confianza sobre la inteligencia artificial (IA) en el entorno laboral. Líderes empresariales y empleados coinciden en que la IA ofrece grandes oportunidades de transformación empresarial, aunque muestran desconfianza sobre su aplicación responsable. Los empleados manifiestan mayor escepticismo que sus responsables.
Entre los principales resultados destacan las siguientes conclusiones:
• Apenas el 62% de los líderes empresariales (ejecutivos 'C-Level' o sus subordinados directos) acogen positivamente la IA. Este número es aún más bajo entre los empleados, con un 52% de aceptación.
• El 23% de los empleados no está seguro de que su organización anteponga los intereses de los trabajadores por encima de los del negocio a la hora de implementar la IA.
• El 70% de los líderes empresariales está de acuerdo en que la IA debe desarrollarse de manera que permita una fácil revisión e intervención de las personas.
• El 42% de los empleados piensa que su compañía no tiene claro qué sistemas deben estar totalmente automatizados y cuáles requieren de la participación de las personas.
• Tres de cada cuatro empleados afirman que su organización no colabora con la regulación de la IA.
• Cuatro de cada cinco empleados afirman que su compañía no ha compartido directivas claras sobre el uso responsable de la IA.
"Es innegable que la IA brinda infinitas oportunidades de transformación empresarial. Sin embargo, nuestra investigación revela que líderes y empleados presentan una falta de confianza y de conocimiento respecto a las intenciones de sus organizaciones a la hora de implementar la IA en el lugar de trabajo", comenta Jim Stratton, chief technology officer, Workday. "Para cerrar esta brecha, las empresas deben adoptar un enfoque responsable que sea integral, con un fuerte énfasis en la promoción de políticas que ayuden a encontrar el adecuado equilibrio entre la innovación y la confianza".
"Los estándares éticos son clave para garantizar el éxito a largo plazo de la IA y el machine learning (ML). A medida que introducimos más tecnologías con IA, más nos centramos en generar la confianza necesaria con nuestros clientes y empleados", explica Dan Cohen, chief information officer y director of operations de The Amenity Collective. "Nuestro objetivo es construir una cultura, arraigada en lo más profundo de nuestra marca, que adopte la IA e impulse a las personas a utilizar la tecnología para beneficiar a nuestros clientes".
Falta de confianza en todos los niveles de la plantilla
La adopción y el despliegue responsable de la IA por parte de las organizaciones suscita desconfianza en todos los niveles de la plantilla, y especialmente entre los empleados. Solo el 62% de los directivos ve con buenos ojos la adopción de la IA en su organización, y el mismo porcentaje se muestra confiado en que su compañía garantice una aplicación de la IA responsable y fiable. A nivel de empleados, esa cifra desciende aún más, hasta el 52% y el 55%, respectivamente.
Empleados y directivos tampoco están seguros de que su empresa vaya a implementar la IA correctamente. En este sentido, el 23% de los trabajadores no está seguro de que su organización anteponga los intereses de los empleados por encima de los suyos propios a la hora de implementar la IA, mientras que una parte de los líderes se muestra de acuerdo: el 21% afirma no estar seguro de que en sus compañías primen los intereses de los empleados.
IA con la participación de las personas
Los líderes empresariales y los empleados prefieren que las personas utilicen herramientas con IA, pero no tienen claro cuál es la mejor manera de llevarlo a cabo. El 70% de los líderes se muestra de acuerdo con que la IA se desarrolle de forma que permita la fácil revisión e intervención de las personas. No obstante, el 42% de los empleados cree que su empresa no posee una idea establecida sobre qué sistemas deben estar totalmente automatizados y cuáles requieren de la participación de las personas.
Un anterior estudio de Workday sobre IA corrobora las preocupaciones existentes en torno a las capacidades de las organizaciones para implementar la IA de manera responsable y eficaz. Casi tres cuartas partes (72%) de los líderes empresariales han afirmado que sus empresas carecen de las skills necesarias para aplicar de forma completa soluciones basadas en IA y ML, y un porcentaje aún mayor de líderes (76%) ha reconocido que su propio conocimiento de las aplicaciones con IA y ML necesita mejorar.
Necesidad de una gobernanza de IA más transparente
Al pedirles que se imaginen un futuro con la IA como parte de la vida cotidiana, el 42% de los líderes empresariales y el 36% de los empleados mencionan al marco organizativo y a la regulación como los pilares más importantes para lograr una IA confiable.
Sin embargo, se evidencia una falta de visibilidad en la organización en relación a la regulación y directivas de IA. Tres de cada cuatro empleados afirman que su compañía no colabora en la regulación de la IA, mientras que cuatro de cada cinco encuestados sostienen que su empresa aún no ha establecido una guía de uso responsable de la IA.
Workday ha lanzado esta investigación como antesala de la reunión Anual del Foro Económico Mundial, que tiene lugar en Davos (Suiza) del 15 al 19 de enero de 2024.