¡Cuidado! Tus tweets viejos pueden volver para atormentarte

Es posible que ya hayas olvidado el viejo tweet que enviaste después de una noche de fiesta en 2012. Probablemente esté enterrado en los otros 45,000 tweets que has publicado desde entonces y a salvo de las miradas indiscretas de posibles empleadores. O eso es lo que tú crees.

Si bien puede ser difícil para alguien sacar todas las publicaciones de redes sociales, no sería tan difícil para una máquina hacerlo. Los algoritmos pueden profundizar y desenterrar incluso los comentarios más desagradables de las redes sociales.

De hecho, el 70% de los empleadores revisan los perfiles de redes sociales antes de tomar una decisión de contratación, según un estudio realizado en 2017 por CareerBuilder.

Social media recruiting

La práctica se ha generalizado tanto que ahora existe una demanda de servicios de evaluación de antecedentes que se centren específicamente en las cuentas de redes sociales de un candidato.

Fama Technologies, con sede en los EE. UU., por ejemplo, pretende eliminar las “banderas rojas” en el perfil de las redes sociales de una persona mediante el aprendizaje automático y el procesamiento del lenguaje natural. También alerta a los candidatos si están siendo evaluados.

La compañía dijo que el servicio impulsado por la IA no se usa para monitorear las actividades recreativas de una persona con el fin de entrometerse en su vida privada, pero lee publicaciones públicas para detectar cualquier potencial de discurso de odio y fanatismo.

“Los empleadores están buscando gente que no piense que hay algo malo con lo que dicen”, dijo el CEO y cofundador de Fama, Ben Mones, a la CNBC en 2016.

Si la IA etiqueta cualquier publicación como odiosa, misógina o racista, envía el enlace al equipo de reclutamiento. Por lo tanto, la herramienta se utiliza para atrapar a los acosadores incluso antes de unirse a la empresa.

¿Vale la pena?

La intención parece noble, pero ¿es la IA tan confiable al evaluar las “banderas rojas” en las redes sociales?

Jay Stanley, analista principal de políticas de la American Civil Liberties Union, sospecha de cómo funciona el análisis de redes sociales habilitado para AI.

“El procesamiento automatizado del habla humana, incluidas las redes sociales, es extremadamente poco fiable incluso con la IA más avanzada. Las computadoras simplemente no tienen contexto “, dijo Stanley.

“Odio pensar que las personas sean rechazadas injustamente de sus trabajos porque algunas computadoras deciden que tienen una” mala actitud “o alguna otra bandera roja”.

Patrick Ambron, CEO de BrandYourself, una compañía de gestión de la reputación en línea, no cree que un algoritmo pueda evaluar quién vale la pena contratar y quién no.

“Si bien pueden ahorrarle tiempo a una empresa, a menudo son imprecisos e injustos, penalizan a las personas por problemas que no son su culpa y recompensan a las personas que simplemente encajan en un molde particular”, escribió Ambron en AdWeek.

“Si no eres proactivo, podrías perder oportunidades que de otro modo merecerías”.

Cuéntanos que piensas

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *