Así será su vida laboral cuando tenga sus propios agentes de IA

Date:

Quienes sean capaces de crear, desarrollar y utilizar agentes de inteligencia artificial alcanzarán una productividad nunca vista. Se trata de un cambio revolucionario que impactará en nuestra gestión del tiempo, en las posibilidades de promoción, en un nuevo concepto de retribución y recompensa y en el valor que podremos tener para los reclutadores en los procesos de selección.

Imagínese en la siguiente situación: usted ha conseguido crear, desarrollar y activar con éxito un grupo eficiente de agentes de inteligencia artificial que realizan tareas complicadas y que le otorgan unas capacidades y unos niveles de productividad descomunales. Puede imaginarlo, pero no se trata de una fantasía… Usted puede hacerlo realidad si se sube al carro de una nueva fase de la inteligencia artificial que va más allá de la IA generativa: la que tiene que ver con los agentes de IA.

En esta nueva situación, los debates, disputas y dudas sobre cuestiones como la reducción de jornada le quedarán lejanos y pequeños, ya que con esta nueva productividad los conceptos y planteamientos sobre la gestión del tiempo adquieren una nueva dimensión.

También cambian las perspectivas sobre retribuciónascensos y promocionesvaloración del profesionalevaluaciones de desempeñomedida de la productividad… Sin olvidar los procesos de selección y las entrevistas de trabajo: cabe preguntarse cómo valorará un reclutador a un candidato que forma equipo con un grupo de agentes de IA creados por él, que le hacen mejor profesional, más valioso y productivo frente a quién no usa las herramientas de IA.

Javier Blasco, director de The Adecco Institute, se pregunta si esto rompe el modelo de contratación y, en todo caso, cree que «el uso de los agentes de IA por parte de profesionales hiperproductivos revoluciona la hoja de ruta del ciclo del empleado«.

Nota recomendada: ¿Está bien mentirle a un chatbot en una entrevista de trabajo?

También Juan José Jiménez, socio de laboral de Ceca Magán, advierte un cambio significativo que transforma los modelos productivos; y los socios de laboral de Garrigues, Eloy Castañer y Clara Herreros, consideran asimismo que «la IA y, en especial, la nueva etapa de los agentes de IA que transforman la inteligencia artificial generativa en una IA operativa, va a generar un cambio de paradigma en el mercado laboral que hoy es inmensurable. No estamos hablando sólo de una mejora en la productividad o en los procesos de actuación a nivel cuantitativo u organizativo, sino que nos encontramos ante una revolución sin precedentes, con impacto en múltiples perspectivas y facetas del mundo del trabajo».

Nueva gestión del tiempo

Parece evidente que la nueva productividad que implica el uso de los agentes de IA impacta en los conceptos y planteamientos sobre gestión del tiempo que manejamos desde hace años. Y es seguro que tendrá repercusiones sobre debates y medidas en discusión como, por ejemplo, la reducción de jornada.

Paula Talavera, socia de laboral de Baker McKenzie, explica que esta nueva fase de la inteligencia artificial relacionada con los agentes de IA puede llevar a cuestionarnos el modelo de trabajo en función: «Cuando se contrata a un trabajador, ¿se hace para que esté ocho horas trabajando o para que saque adelante un proyecto o una tarea, independientemente del tiempo que le lleve? En el modelo que tenemos ahora -de salarios por horas- no se mira mucho la productividad ni se pone el foco en que el empleado sea más o menos productivo, sino en que trabaje más o menos tiempo».

Sobre el debate acerca de la reducción de jornada Talavera añade que «antes se trabajaban 40 horas y ahora pueden ser 37,5 horas, pero se habla de ser productivo trabajando menos tiempo. Si con la IA podemos hacer más cosas en menos tiempo, con las horas extra que nos quedan podemos hacer otras cosas, o trabajar más. Si antes podíamos hacer 10 unidades ahora vamos a hacer 15, pero no vamos a trabajar menos horas. Al final, si a usted le están pagando por 40 horas o por 37, le van a seguir pagando esas horas. Simplemente va a trabajar más unidades en las horas que ya tiene».

Nota recomendada: ¿Qué hacer con la brecha de género en la adopción de IA?

La socia de Baker recuerda que el trabajo autónomo va por proyectos, mientras que en el trabajo asalariado se funciona por horas. No se permite otra fórmula, porque al final nos están pagando por tiempo de trabajo, no por proyectos. Si el trabajo que realizamos ahora en ocho horas lo podemos terminar en cinco, no nos van a permitir trabajar cinco horas cobrando lo mismo. Cabe preguntarse entonces cuál es el aliciente».

Por su parte Juan José Jiménez no cree que el debate de la reducción de jornada gire en torno al uso de nuevas tecnologías. El socio de laboral de Ceca Magán recuerda que «un agente de inteligencia artificial es capaz de generar trabajo con cierta autonomía, pero los agentes de IA no son trabajadores en sí… Puede ser que uno haga el trabajo en menos tiempo (reducción de jornada), o que trabajemos el mismo tiempo, trabajando más».

Eloy Castañer y Clara Herreros también se muestran convencidos de que el uso de la IA puede introducir cambios importantes en el concepto de jornada laboral: «La normativa laboral vigente, así como algunas de las novedades previstas, se centra en registrar el presentismo laboral, que nada tiene que ver con la eficiencia y la productividad. La introducción de la IA puede cambiar esta visión hacia fórmulas más orientadas a los resultados y menos centradas simplemente en el tiempo dedicado que, entonces sí, pueden alimentar debates que actualmente ya están encima de la mesa, como el de la reducción de la jornada efectiva de trabajo».

Quién forma al profesional

Hablando de igualdad y de reglamentos que definen un trabajo de igual valor, Javier Blasco añade que «si se controla la equidad interna y hay alguien que rompe la estructura (en este caso, aquellos profesionales hiperproductivos que usan los agentes de IA), cabe preguntarse también qué pasa con aquellos empleados que no usan la inteligencia artificial. Se pregunta si todo esto dará lugar a discriminaciones; si quedarán descolgados algunos empleados; y, más allá, si se les podría despedir.

Paula Talavera opina que «sin duda, tener conocimientos de inteligencia artificial otorga una ventaja competitiva respecto de quien no los tenga, de la misma manera que hace años la daba saber idiomas, y se pregunta hasta qué punto la compañía está obligada a formar a los profesionales para que no se queden atrás. Su respuesta es que «si como empresa se va a requerir que los empleados tengan conocimientos en este campo, tendrá que plantearse formar a su gente. ¿Se va a sustituir a los que no sepan de IA? Lo lógico sería formarlos para que estén al mismo nivel que los que saben. Si para un puesto se requiere conocimientos y dominio de inteligencia artificial, hay que formar en ella a los profesionales».

Nota recomendada: Cómo la IA cambiará los RRHH en 2025

Juan José Jiménez también cree que «la empresa puede exigir el dominio de la inteligencia artificial a sus profesionales si implanta ésta en el proceso productivo. Y si es así, la compañía tiene la obligación de impartir formación a sus empleados».

Jiménez añade que esa formación ha de ser adecuada y debe hacer posible la adaptación al puesto de trabajo. Asegura que en el caso de los profesionales que no se adapten a esa adopción de la IA «existiría la posibilidad de extinguir el contrato por ‘ineptitud sobrevenida’, pero para ello las herramientas de inteligencia artificial han de ser consideradas como esenciales para el puesto de trabajo. Sólo así se puede plantear la posibilidad de despedir a quien no se adapte».

Eloy Castañer y Clara Herreros creen que cobrará una especial relevancia la formación profesional en las empresas para reciclar a los empleados y facilitar que puedan adaptarse a las nuevas tareas transformadas por el uso de la IA, o que puedan ser reubicados en otras posiciones.

Javier Blasco se pregunta además cómo se podrá reconocer la supercapacidad de quienes usan agentes de inteligencia artificial de cara a una promoción, y los socios de laboral de Garrigues añaden que «será clave la capacidad de adaptación de las personas a las nuevas necesidades del mercado de trabajo, en el que se dará más valor a una serie de competencias y conocimientos que hasta ahora no eran tan necesarios o prioritarios (no será lo mismo ser sólo un abogado, que un abogado con competencias en IA generativa)».

Estas competencias serán relevantes sin duda en el momento de la contratación, siendo más empleables las personas con estos conocimientos, pudiéndose generar un desplazamiento o expulsión de aquellos candidatos que no los tengan: «Está claro que los procesos de contratación y la gestión de los recursos humanos cambiarán, no sólo porque las competencias en IA generativa serán más valoradas, sino porque incluso para la selección se utilizarán algoritmos y sistemas de inteligencia artificial, tomando especial relevancia los principios de transparencia y responsabilidad empresarial para evitar la discriminación algorítmica, sesgos o decisiones injustas».

De quién son los agentes

Otro de los debates que plantea el uso de agentes de IA en la empresa es, según Javier Blasco, si las nuevas herramientas de inteligencia artificial para crear esos agentes deben ser proporcionadas por la empresa o si debe aportarlas el propio empleado.

Paula Talavera cree que «quien tiene que aportar los medios es la empresa, no el trabajador. Al final, la responsabilidad sobre el trabajo la tiene la compañía. Si un agente de IA no funciona o mete la pata por algo, la responsable es la empresa. Y tal como lo tenemos montado y bajo el modelo con el que contamos ahora, no va a ser fácil que la empresa nos permita utilizar esos agentes que traemos».

Nota recomendada: Reclutamiento y contratación de talentos de IA

Talavera añade que «otra cuestión diferente es que el profesional llegue al trabajo y a una compañía determinada y diga que con sus agentes puede hacer más y mejor tarea. Y que la empresa lo adopte y lo introduzca en su forma de trabajar».

La socia de Baker McKenzie cree que, «ahora mismo, tal como está montado el sistema de relaciones laborales, es difícil que una empresa permita a un profesional que use unos agentes de IA que no son los suyos, por una cuestión de responsabilidad en la prestación del servicio y también por control de la actividad laboral».

En relación con quién es el propietario de los agentes de inteligencia artificial Juan José Jiménez explica que «no es lo mismo si el agente de IA ha sido creado antes de iniciarse la relación laboral que si el profesional los crea cuando ya está en la empresa».

Paula Talavera cree que esto tiene más cabida con el trabajo autónomo: «Un autónomo pone sus medios y responde del trabajo y de la tecnología que está utilizando». Además, pronostica que «al final, vamos hacia un mix entre un trabajador como lo conocemos ahora y un autónomo, y de ahí resultará una figura híbrida intermedia que ahora no tenemos«.

Talavera añade que «también podría suceder que la compañía contrate a un profesional y que un grupo de sus agentes atienda a parte de los clientes, y el profesional al resto. Pero esto se puede hacer siempre que la empresa se lo permita. Lo honesto sería no hacerlo a espaldas de la compañía».

La socia de laboral de Baker McKenzie cree que se necesita una regulación para todo esto: «Con lo que tenemos ahora hay un contrato normal estándar que nos cubriría, pero si lo regulamos es mucho mejor. Hay empresas que no permiten usar ChatGPT y eso supone un límite para el empleado. Ahora mismo no necesitamos cambiar los contratos de trabajo. La compañía tiene que pedir a los trabajadores la información acerca de cómo están haciendo el trabajo. Como empresa, la responsabilidad es suya».

Paula Talavera insiste en la importancia de determinar de quién son los medios: «Yo puedo llegar a la entrevista de trabajo diciendo que soy capaz hacer todo esto y más rápido, porque vengo con varios agentes de IA. No es fácil implementarlo con el sistema laboral que tenemos ahora. A los trabajadores en general no les gusta ser autónomos dentro de una organización».

La socia de Baker McKenzie añade que «en determinados sectores en los que los profesionales tienen más grado de independencia para hacer su trabajo, al final siempre existe el riesgo de que se recalifique la relación como laboral. No hay más que ver los casos de Glovo o Uber… Todo lo que se salía de lo normal y que daba independencia para hacer con los propios medios una actividad se acabó legislando para traerlo a lo laboral. La idea de un híbrido entre el trabajador tradicional y el autónomo no gusta ni al trabajador ni al regulador».

Talavera cree que hay que abrir más la mentalidad del sistema de relaciones laborales que tenemos para permitir y para ver con normalidad que haya gente que aporta más medios, y «potenciar la figura del autónomo económicamente independiente podría ser una fórmula válida».

Nota recomendadad: RR.HH. ¿Arquitecto de Talentos o Copiloto de IA?

Más dudas y sesgos

Cuando un profesional trae unos agentes de IA para realizar su actividad en una compañía, ¿sabe realmente cómo utilizan los datos esos agentes? Paula Talavera recuerda que las empresas pueden ser permisivas, pero con ciertas cautelas que se refieren a la confidencialidad de los datos.

También hay que hablar de los sesgos. Y aquí conviene preguntarse qué garantías existen acerca de que lo que se hace con los agentes de IA no resulta discriminatorio. También hay que plantear las interrogantes acerca de cómo se han creado esos agentes; si se sabe cómo cómo funcionan; de dónde ha sacado los datos y con quién los comparten…

Paula Talavera insiste en la idea de que «no estamos preparados ahora mismo para que los profesionales traigan sus propios agentes a las compañías, porque al final la responsabilidad es de la empresa. Lo normal sería que una vez que el empleado aporte sus agentes, la empresa debería analizar lo que hace el profesional. En el caso de que supere un estándar mínimo, podría adoptarlo». Añade que si a un empleado no le dejan usar estos agentes, tal vez lo que tenga que hacer es ofrecer sus servicios como autónomo y no como empleado, teniendo en cuenta lo dicho anteriormente: Vamos hacia una fórmula mixta que cambia las relaciones laborales, que crea una figura intermedia. Se trata de una cuestión de responsabilidad como empleado.

Nueva evaluación

El director de The Adecco Institute también plantea qué valores se deberían tener en cuenta en la evaluación del desempeño de los profesionales que usan agentes de IA, y si tendrán que adaptarse estas evaluaciones al uso de la inteligencia artificial y a la creación de estos agentes.

Hay que recordar que las personas no sólo son contratadas por la IA, sino que también son evaluadas, controladas y dirigidas por ella. También son cada vez más comunes las herramientas potenciadas por IA que permiten establecer objetivos analíticos y evaluar el rendimiento.

Un ejemplo es el de la empresa BetterWorks, que ofrece una evaluación del rendimiento basada en IA que pretende sustituir al proceso tradicional de revisión de la gestión del rendimiento dirigida por humanos.

Existe una tendencia a vigilar el comportamiento de los trabajadores con el fin de recopilar datos que luego puedan ser analizados por la IA. Esto ha transformado las herramientas de supervisión en fuentes de datos. Una vez acumulados estos datos, a menudo son procesados por la IA para llegar a conclusiones y decisiones sobre los trabajadores.

Nota recomendada: Inteligencia Artificial en RR.HH. se Duplicó en el Ultimo Año

La interacción de personas con dispositivos inteligentes plantea retos desde la perspectiva jurídica: la protección de la identidad humana y la integridad neuronal.

Hay quien piensa que los avances que representan el machine learning o el deep learning, así como la emergencia de la neurociencia y la neurotecnología, han generado la irrupción de una nueva categoría legal: los neuroderechos, que se deben examinar y distinguir de los derechos tradicionales, para garantizar su debida regulación frente a los desarrollos innovadores de la inteligencia artificial.

Ignasi Beltran, catedrático de Derecho del Trabajo y de la Seguridad Social de la UOC cree que la inteligencia artificial puede leer nuestras intenciones y condicionar lo que haremos.

Así, la información que obtienen los algoritmos extractivos permite perfilar la conducta y hacen posible acceder a nuestras intenciones y emociones e, incluso, aspirar a condicionar el comportamiento.

Rafael Yuste, neurobiólogo y profesor de ciencias biológicas en la Universidad de Columbia en Nueva York -ideólogo del proyecto Brain- es uno de los artífices de haber formulado la necesidad de añadir nuevos derechos a la Declaración Universal de los Derecho Humanos: lo que se conoce como neuroderechos, entre los que figuran la identidad personal -la neurotecnología no podrá alterar el sentido del yo de las personas bajo ninguna circunstancia; o el acceso equitativo, que habla de que la mejora en las capacidades cerebrales gracias a la neurotecnología deberá estar al alcance de todos.

También está el libre albedrío, que se refiere a que las personas podrán tomar decisiones libremente, sin manipulación neurotecnológica; la privacidad mental -no se podrán usar los datos de la actividad cerebral de las personas sin su consentimiento-; o la protección contra los sesgos: no se podrá discriminar a las personas a partir de los datos obtenidos por medio de neurotecnología.

Comparte esta Nota:

spot_img

Popular

Notas Relacionadas
Related

Cómo surfear la nueva ola del alto rendimiento que ya llega

La productividad, y habla de una desconexión creciente entre...

Tendencias en el mercado de trabajo de 2025

El cambio hacia horarios híbridos o la contratación con...

7 formas en las que Recursos Humanos será diferente en 2025

El lugar de trabajo se encuentra en un punto...