banner
Hogar / Blog / Por supuesto, utilice la IA en el trabajo, pero tenga en cuenta las cuestiones legales espinosas que pueden surgir www.singaporelawwatch.sg
Blog

Por supuesto, utilice la IA en el trabajo, pero tenga en cuenta las cuestiones legales espinosas que pueden surgir www.singaporelawwatch.sg

Aug 15, 2023Aug 15, 2023

Dependiendo de cómo se aproveche la tecnología en el lugar de trabajo, la IA podría dar lugar a una infinidad de obstáculos legales para los desprevenidos.

“La IA probablemente conducirá al fin del mundo”, proclamó Sam Altman. Esta es una predicción audaz y catastrófica, proveniente de la fuerza impulsora detrás de OpenAI y su innovadora creación, ChatGPT.

Geoffrey Hinton, ampliamente considerado el padrino de la inteligencia artificial (IA), se hace eco de sus sentimientos, quien mencionó que le preocupaba el “riesgo existencial” de lo que sucedería cuando la IA se volviera más inteligente que los humanos.

Si bien aún no se sabe si estamos viviendo en el fin de los tiempos, no se puede negar que la IA está teniendo un impacto transformador en la forma en que trabajamos.

A medida que la IA continúe desarrollándose y, nos atrevemos a decir, volviéndose más inteligente, inevitablemente remodelará los cimientos de cómo las empresas realizan negocios y administran su fuerza laboral. Dependiendo de cómo se aproveche la tecnología, esto podría dar lugar a una infinidad de obstáculos legales para los desprevenidos. En este comentario, destaco, de forma no exhaustiva, tres cuestiones jurídicas que los empleadores y los empleados deben tener en cuenta.

Dilema legal 1: ¿Quién asume la responsabilidad (legal) de las decisiones que toma la IA?

Uno de los efectos más inmediatos de la IA en el lugar de trabajo es su papel en la automatización y optimización de procesos.

Herramientas impulsadas por IA como WebHR, Workable y Talkpush ya han comenzado a optimizar numerosos procesos de Recursos Humanos (RRHH), desde la adquisición e incorporación de talento hasta la gestión de nóminas y evaluaciones de desempeño.

Esta mayor eficiencia conduce a una reducción de las cargas administrativas, lo que permite a los profesionales de RR.HH. centrarse en tareas más estratégicas, como el desarrollo de la fuerza laboral, las necesidades comerciales y el bienestar de los empleados.

Sin embargo, esto también plantea importantes consideraciones jurídicas. A medida que los procesos se automatizan, la cuestión de la propiedad y la responsabilidad de la toma de decisiones se vuelve más confusa.

En el contexto de la adquisición de talento, en particular, el uso de software para automatizar la selección de CV y ​​la búsqueda de candidatos reduce drásticamente el tiempo que los reclutadores deben dedicar a examinar los currículums. Sin embargo, el uso de algoritmos de IA podría conducir a resultados perversos si tiene el efecto no deseado de amplificar el sesgo, por ejemplo, al favorecer a personas con ciertos acentos o rasgos faciales.

En caso de que piense que esto es descabellado, en octubre de 2019, los investigadores descubrieron que un algoritmo utilizado en más de 200 millones de personas en hospitales de EE. UU. para predecir qué pacientes probablemente necesitarían atención médica adicional favorecía en gran medida a los pacientes blancos sobre los pacientes negros. Si bien la raza en sí no fue una variable utilizada en el algoritmo, otra variable altamente correlacionada con la raza sí lo fue, que fue el historial de costos de atención médica.

¿Quién es responsable si un algoritmo de IA toma una decisión de contratación discriminatoria?

No es descabellado anticipar que los gerentes de contratación señalarían con el dedo a los profesionales de recursos humanos, quienes probablemente dirigirán la responsabilidad a sus colegas de servicios empresariales responsables del software, quienes a su vez probablemente desviarán la culpa hacia los criterios de contratación que les dieron los directivos. gerente de contratación en primer lugar.

Por lo tanto, se deben establecer directrices y regulaciones claras para abordar estas preocupaciones éticas y garantizar el cumplimiento de las leyes contra la discriminación, como la próxima Ley de Equidad en el Lugar de Trabajo de Singapur.

Dilema legal 2: ¿En qué momento resulta problemático para los empleadores recopilar datos para vigilancia?

La capacidad de la IA para procesar y analizar grandes cantidades de datos está cambiando las prácticas laborales existentes.

El análisis predictivo puede ayudar a las organizaciones a tomar decisiones informadas sobre la planificación de la fuerza laboral, identificar posibles áreas de preocupación y mejorar el compromiso de los empleados. Los algoritmos de IA pueden señalar tendencias relacionadas con la rotación de empleados, la satisfacción y el desempeño en el lugar de trabajo, lo que permite a los empleadores tomar medidas proactivas para abordar los problemas antes de que se agraven.

Las herramientas equipadas con IA también permiten un seguimiento y vigilancia sofisticados en el lugar de trabajo. Desde el seguimiento de las actividades y el comportamiento de los empleados hasta el seguimiento de las comunicaciones digitales, los sistemas impulsados ​​por IA pueden ofrecer a los empleadores información sin precedentes sobre su fuerza laboral.

Sin embargo, como le dijo el tío Ben a Peter, un gran poder conlleva una gran responsabilidad. Y en este sentido, la privacidad de los datos es una preocupación primordial, y con razón. En Singapur, la Ley de Protección de Datos Personales de 2012 asigna la responsabilidad de salvaguardar los datos personales a la organización que los custodia, muy a menudo la empresa, y le exige que adopte medidas de seguridad razonables para evitar cualquier acceso no autorizado o pérdida. La Comisión de Protección de Datos Personales tiene la facultad de imponer sanciones por violaciones de datos.

En la medida en que los datos personales se almacenen en servidores ubicados en otro lugar, pueden aplicarse otras regulaciones con requisitos aún más estrictos. Por ejemplo, el Reglamento General de Protección de Datos (GDPR) de la Unión Europea no solo exige que los procesadores de datos salvaguarden los datos personales, sino que también exige que los controladores de datos implementen medidas apropiadas para garantizar que los datos se procesen de acuerdo con los requisitos del GDPR.

Y más cerca de casa, la recién promulgada Ley de Protección de Información Personal de China tiene reglas especiales en torno al procesamiento de información personal sensible y, además, prohíbe a las organizaciones procesar o revelar información personal de cualquier forma que sea contraria a la seguridad nacional o al interés público.

Estos son campos minados potenciales que las organizaciones deben conocer para evitar violaciones e infracciones inadvertidas.

En lo que respecta a la vigilancia en el lugar de trabajo, en particular, esto también genera preocupaciones sobre la privacidad de los empleados y la autonomía individual. No es exagerar la imaginación establecer paralelismos con el futuro distópico contemplado por George Orwell en su novela fundamental 1984, donde Gran Hermano utiliza tecnología avanzada para monitorear y controlar los pensamientos y acciones de los ciudadanos de Oceanía.

Se requieren límites claros para evitar el posible uso indebido de los datos de vigilancia y cualquier discriminación, acoso o trato injusto de cualquier individuo.

Dilema legal 3: ¿Cómo garantizar que la IA no viole los derechos de propiedad intelectual (PI)?

Otra área donde la IA está teniendo un efecto transformador es en el proceso creativo. Últimamente, la IA está desempeñando un papel cada vez más importante como herramienta creativa en la arquitectura, la ciencia, la música y, en particular, las artes. Los sistemas de IA generativa como DALL-E2 son capaces de crear imágenes y arte realistas a partir de descripciones simples ingresadas en un lenguaje natural. Puedes decirle a DALL-E2 que cree una pintura al óleo impresionista de girasoles en un jarrón morado al estilo de Pissarro, y lo hará.

Esto inevitablemente plantea preguntas sobre la propiedad/autoría de cualquier producto generado por sistemas equipados con IA, así como el riesgo de apropiación indebida de la propiedad intelectual. Es bien sabido que la IA se basa en gran medida en datos, cuyos algoritmos de aprendizaje automático extraen grandes cantidades de datos que se encuentran en numerosas bases de datos.

Ya estamos viendo esto en la demanda presentada por los autores Mona Awad y Paul Tremblay, quienes alegan que OpenAI violó las leyes de derechos de autor al entrenar a ChatGPT en sus novelas sin su permiso. Señalan el hecho de que ChatGPT pudo generar resúmenes muy precisos de sus trabajos.

También hay cuestiones éticas y morales a considerar. El uso de IA generativa para replicar estilos o géneros artísticos que imitan las obras de los antiguos maestros plantea dudas sobre la autenticidad y la integridad de los artistas de hoy. Como le dirá Ed Sheeren después de su juicio por derechos de autor contra el patrimonio de Marvin Gaye, ésta es una pendiente muy resbaladiza, y de la cual no hay garantía de compensación financiera incluso si usted gana en el juicio. Entonces, sigamos adelante.

Dentro del ámbito empresarial, la IA tiende a abrir un mundo de posibilidades, a veces con consecuencias adversas. En un extremo del espectro, los empleados podrían utilizar la IA generativa como una herramienta benigna para desarrollar hojas de cálculo llamativas y resúmenes concisos de informes. Por otro lado, los empleados lánguidos o sin escrúpulos podrían buscar atajos empleando IA para redactar o incluso plagiar informes completos para ellos.

La urgente necesidad de barandillas

Si, como Altman y Hinton, temes por el futuro de la humanidad y la inminente guerra con las máquinas, entonces piensa en la cadena de supermercados neozelandesa Pak 'n' Save. Su planificador de comidas impulsado por IA recomendó recientemente a los clientes recetas para, entre otras cosas, sándwiches de pan envenenado, patatas asadas repelentes de mosquitos y un salteado de verduras Oreo.

O considere a los dos desafortunados abogados de Nueva York que se metieron en problemas al confiar en ChatGPT para su investigación legal. Presentaron un escrito legal que citaba varios casos, supuestamente en apoyo de sus argumentos. Más tarde se supo que los casos eran completamente ficticios y habían sido inventados por ChatGPT.

Está claro que, a pesar de todo el poder y el potencial que tiene la IA, esta tecnología incipiente todavía es propensa al fracaso, a veces con resultados hilarantes.

Dicho esto, más que nunca se necesitan barreras de seguridad para evitar que se abuse de esta tecnología o incluso que se utilice como arma a medida que se desarrolla.

La Unión Europea ha tomado la iniciativa al formular la Ley de IA de la UE, el primer marco legal integral para la IA del mundo. La Ley establecerá obligaciones para proveedores y usuarios en función del nivel de riesgo de la IA. Es probable que sea cuestión de tiempo antes de que otras jurisdicciones líderes también lo hagan, y las organizaciones deben estar preparadas para la regulación resultante; después de todo, nadie quiere comer tostadas francesas con trementina y metanol, ¿verdad?

Clarence Ding es socio y director de la práctica laboral de Singapur del bufete de abogados internacional Simmons & Simmons. Este comentario refleja sus puntos de vista personales y no pretende constituir asesoramiento legal.

Fuente: Business Times © SPH Media Limited. Se requiere permiso para la reproducción.

Dilema legal 1: ¿Quién asume la responsabilidad (legal) de las decisiones que toma la IA?Dilema legal 2: ¿En qué momento resulta problemático para los empleadores recopilar datos para vigilancia?Dilema legal 3: ¿Cómo garantizar que la IA no viole los derechos de propiedad intelectual (PI)?La urgente necesidad de barandillas