Los trabajadores están utilizando herramientas de inteligencia synthetic para aumentar la productividad particular person, pero mantienen su actividad a un nivel bajo, lo que podría estar perjudicando el desempeño normal de sus organizaciones, sostiene un profesor de la escuela de negocios Wharton en un weblog publicado el domingo.
“Hoy, miles de millones de personas tienen acceso a modelos de lenguaje extenso (LLM) y los beneficios de productividad que brindan”, escribió Ethan Mollick en su weblog One Helpful Factor. “Y, a partir de décadas de investigación en innovación estudiando a todos, desde plomeros hasta bibliotecarios y cirujanos, sabemos que, cuando se les da acceso a herramientas de propósito normal, las personas descubren formas de usarlas para hacer su trabajo más fácil y mejor”.
“Los resultados suelen ser inventos revolucionarios, formas de usar la IA que podrían transformar un negocio por completo”, continuó. “La gente está agilizando las tareas, adoptando nuevos enfoques para la codificación y automatizando partes tediosas y que consumen mucho tiempo de sus trabajos. Pero los inventores no informan a sus empresas sobre sus descubrimientos; son los cyborgs secretos, humanos mejorados por máquinas que se mantienen ocultos”.
Mollick sostuvo que las formas tradicionales en que las organizaciones responden a las nuevas tecnologías no funcionan bien para la IA y que la única forma de que una organización se beneficie de la IA es obtener la ayuda de sus «cyborgs» mientras anima a más trabajadores a usar la IA.
Eso requerirá un cambio importante en la forma en que operan las organizaciones, sostuvo Mollick. Esos cambios incluyen acorralar a la mayor cantidad posible de la organización en la agenda de IA, disminuir los temores asociados con el uso de IA y proporcionar incentivos para que los usuarios de IA se presenten y alienten a otros a usar IA.
Las empresas también deben actuar con rapidez en algunas cuestiones básicas, agregó Mollick. ¿Qué hace con las ganancias de productividad que podría lograr? ¿Cómo se reorganiza el trabajo y se eliminan los procesos que la IA deja vacíos o inútiles? ¿Cómo administra y controla el trabajo que podría incluir riesgos de alucinaciones impulsadas por IA y posibles problemas de propiedad intelectual?
negocio disruptivo
Por más beneficioso que pueda ser sacar a la IA de las sombras, podría ser muy disruptivo para una organización.
“La IA puede tener un impacto positivo del 30 % al 80 % en el rendimiento. De repente, un empleado marginal con IA generativa se convierte en una superestrella”, observó Rob Enderle, presidente y analista principal de Enderle Group, una firma de servicios de asesoría en Bend, Oregon.
“Si la IA generativa no se divulga, puede generar dudas sobre si un empleado está haciendo trampa o si se estaba volviendo más holgazán antes”, dijo a TechNewsWorld.
“La parte del secreto no es tan disruptiva como potencialmente problemática tanto para el gerente como para el empleado, particularmente si la empresa aún no ha establecido una política sobre el uso y la divulgación de la IA”, agregó Enderle.
El uso de IA podría generar una visión poco realista del conocimiento o la capacidad de un empleado que podría conducir a expectativas peligrosas en el futuro, dijo Shawn Surber, director sénior de gestión técnica de cuentas en Tanium, un proveedor de gestión de terminales convergentes, en Kirkland, Washington.
Citó el ejemplo de un empleado que usa una IA para escribir un informe extenso sobre un tema en el que no tiene una gran experiencia. “La organización puede verlos como expertos, pero en realidad, solo usaron una IA para escribir un solo informe”, dijo a TechNewsWorld.
También pueden surgir problemas si un empleado está utilizando IA para producir código o procesar documentación que se alimenta directamente a los sistemas de una organización, agregó Surber. “Las IA de modelo de lenguaje grande son excelentes para generar cantidades voluminosas de información, pero si no se verifica cuidadosamente, podría crear problemas en el sistema o incluso problemas legales para la organización”, explicó.
Uso de IA sin sentido
La IA, cuando se usa bien, dará a los trabajadores un aumento de la productividad que no es intrínsecamente disruptivo”, sostuvo John Bambenek, principal cazador de amenazas en Netenrich, una empresa de operaciones de seguridad digital y TI en San José, California.
“Es el uso sin sentido de la IA lo que puede ser disruptivo para los trabajadores, simplemente no revisando el resultado de estas herramientas y filtrando las respuestas sin sentido”, dijo a TechNewsWorld.
Comprender la lógica detrás de los resultados de la IA generativa a menudo requiere conocimientos especializados, agregó Craig Jones, vicepresidente de operaciones de seguridad en Ontinue, un proveedor de detección y respuesta administrada en Redwood Metropolis, California.
“Si las decisiones se basan ciegamente en estos resultados, pueden conducir a estrategias equivocadas, sesgos o iniciativas ineficaces”, dijo a TechNewsWorld.
Jones afirmó que el uso clandestino de la IA podría generar un entorno de incoherencia e imprevisibilidad dentro de una organización. “Por ejemplo”, dijo. “Si un individuo o un equipo aprovecha la IA para agilizar las tareas o aumentar el análisis de datos, su desempeño podría eclipsar significativamente a aquellos que no emplean recursos similares, creando resultados de desempeño desiguales”.
Además, continuó, la IA utilizada sin conciencia gerencial puede generar serios dilemas éticos y legales, particularmente en sectores como recursos humanos o finanzas. “Las aplicaciones de IA no reguladas pueden perpetuar inadvertidamente los sesgos o infringir los requisitos reglamentarios”.
Prohibir la IA no es una solución
Por disruptiva que pueda ser la IA, prohibir su uso por parte de los trabajadores probablemente no sea el mejor curso de acción. Debido a que «IA proporciona un aumento de productividad del 30% al 80%», reiteró Enderle, «prohibir la herramienta, en efecto, haría que la empresa no pudiera competir con sus pares que están adoptando y utilizando la tecnología adecuadamente».
“Es una herramienta potente”, agregó. «Ignóralo bajo tu propio riesgo».
Una prohibición whole puede no ser el camino correcto, pero es apropiado establecer pautas sobre qué y qué no se puede hacer con la IA pública, señaló Jack E. Gold, fundador y analista principal de J. Gold Associates, una empresa de asesoramiento de TI. , en Northborough, Massachusetts.
“Hicimos una encuesta de usuarios comerciales preguntando si sus empresas tenían una política sobre el uso de IA pública, y el 75% de las empresas dijeron que no”, dijo a TechNewsWorld.
“Entonces, lo primero que debe hacer si le preocupa que se filtre su información es establecer una política”, dijo. “No puedes gritarle a la gente por no seguir la política si no hay una”.
La fuga de datos puede ser un riesgo de seguridad appreciable cuando se utilizan aplicaciones de IA generativa. “Muchos de los riesgos de seguridad de la IA provienen de la información que la gente pone en ella”, explicó Erich Kron, defensor de la conciencia de seguridad en KnowBe4, un proveedor de capacitación en conciencia de seguridad en Clearwater, Florida.
«Es importante comprender que la información se carga esencialmente a estos terceros y se procesa a través de la IA», dijo a TechNewsWorld. “Este podría ser un problema importante si las personas no están pensando en la información confidencial, la PII o la propiedad intelectual que están proporcionando a la IA”.
En su weblog, Mollick señaló que la IA está aquí y ya tiene un impacto en muchas industrias y campos. “Entonces, prepárate para conocer a tus cyborgs”, escribió, “y comienza a trabajar con ellos para crear una organización nueva y mejor para nuestra period obsesionada por la IA”.