Mi novia es trabajadora social. Trabaja junto a otras 12 compañeras en un edificio público en el que padres que han perdido (temporalmente) la custodia de sus hijos se reencuentran con ellos para reestablecer los lazos familiares. Y no se cree que la tecnología pueda hacer parte de su trabajo porque, después de todo, ella trabaja con personas.

Y ahora viene el pero.

Mi novia realiza informes periódicos de los casos. Un breve informe por visita y uno cada tanto tiempo para mostrar el avance del caso. A veces, el retroceso. Y he logrado automatizar parcialmente esto, desde mi casa.

Como obviamente grabar a los usuarios está terminalmente prohibido, hemos hecho en casa un juego de imitación en el que hemos mantenido varias conversaciones entre nosotros, fingiendo una visita de pocos minutos.

Hemos grabado la sesión con una grabadora no conectada a internet que transcribe la información del audio en texto.

Luego, hemos pasado ese texto (esta vez sí conectado a la red) mediante un algoritmo basado en GPT para que realice un resumen estructurado de la conversación. Cosas como quién habla más, qué tipo de lenguaje usa. Tiempos sin audio. Quién habla después de quién (quién da pie a hablar).

También hemos pedido una síntetis, así como una batería de preguntas que podría realizar la Comunidad de Madrid (organismo madre de este trabajo) en función de las pregunta que suelen hacer sus técnicos. Y hemos pedido a GPT que las conteste en función del diálogo transcrito.

El sistema ha funcionado a la perfección y, aunque no elimina la supervisión humana (no hay errores de hechos pero sí hay cierta mejora en redacción) estimamos que esta tecnología podría evitar el 30 % del trabajo de mi pareja.

Son 13 empleadas que hacen el mismo trabajo. Y aquí hay dos opciones: despedir a 3 o aumentar de forma notable los beneficiarios.

@euklidiadas Cualquiera de las dos opciones pasa por hablar primero con la agencia española de protección de datos, a ver si le parece bien grabar a personas vulnerables y enviar sus conversaciones a una empresa en Estados Unidos. Y sí, también se podría hacer con un modelo local, pero igualmente habría que tener en cuenta la protección de datos

@tinitun Los usuarios ya aceptan por defecto que sus datos sean recopilados para darles servicio. Si no lo aceptan, técnicas como mi pareja no podrían escribir informes sobre ellos, así que en ese sentido ya está hecho el encaje legal.

Y sobre la salida de datos de nuestras fronteras, yo es que soy un zote tecnológico. Cualquiera que tenga un mínimo de maña te instala un sistema GPT en un PC aislado de la red. Con borrar las grabaciones y transcripciones luego, ya lo tienes solucionado. Puede ser una instrucción para las trabajadoras sociales: una vez emitido el informe revisado, purgar datos.

· · Web · 0 · 0 · 0
Sign in to participate in the conversation
redNiboe

Comunidad fediversal para productores y curadores de conocimiento. Lenguajes: Español, Português, otras lenguas nuestroamericanas.