Las máquinas no necesitan ser perfectas para reemplazarnos, solo necesitan cometer menos errores que el humano medio. Y eso es tremendamente fácil.

@kAlvaro Ni siquiera necesitan serlo. Con ser más fiables es suficiente. ¿No pagarías más por no tener atropellos, o mejor calidad de comida, o menos errores al servirte en un restaurante?

@GeEfe @euklidiadas @kAlvaro Bueno, la fiabilidad es una medida estadística, no hace falta entender cómo lo hace. Ahí tienes la anestesia en medicina. No está claro cómo lo hace, pero sabemos que funciona (en la gran mayoría de la gente).

@kAlvaro @GeEfe @euklidiadas No sé si te sigo... Yo solo he dicho que puede haber fiabilidad en un proceso aún sin entender cómo lo hace.

Otra cosa es que quieras o necesites entenderlo por algún motivo (por ej., la UE lo exige cuando el resultado de un algoritmo afecta a ciudadanos). Pero son dos temas diferentes: fiabilidad vs explicabilidad/atribución de responsabilidad/etc.

@GeEfe @the_heruman @kAlvaro

Igual estamos mezclando las cosas. Por un lado, como decís, no es necesario entender un proceso para determinar si una alternativa es más fiable que otra.

Por otro lado, no todas las rutinas de un proceso dado tienen por qué tener una alternativa por máquina que sea mejor que mantener a un humano. Ahora mismo, por ejemplo, las IA transcriben más rápido que los humanos y cometen menos errores que el humano previo, pero no menos que el humano al que se le paga por transcribir. Y lo mismo con la síntesis de la información transcrita.

· · Web · 1 · 0 · 2

@GeEfe @the_heruman @kAlvaro

Aproximadamente hacia 2019 se demostró que el mejor sistema de visión por ordenador ya era notablemente mejor que el promedio humano. No era mejor que los pilotos de F1, pero sí que el grueso de los conductores. Eso es suficiente para empezar a desplegar robo-taxis, porque una máquina no perfecta ya es mejor que casi todos los que conducen ahora mismo.

@euklidiadas No es mi especialidad, pero por lo que sé la cosa sigue sin ser viable. Es cierto que las técnicas de reconocimiento de formas y otras similares han avanzado mucho, pero sigue sin estar claro qué hacer en muchas situaciones. Sin un "modelo del mundo" (que las redes neuronales no tienen) es imposible que pueda responder bien en situaciones inesperadas.

Además, sigue sin estar claro el tema de la atribución de responsabilidad. En caso de accidente, de quién es la culpa? Del conductor? Del sistema de autoconducción? Del fabricante del coche? Por lo que sé, en los pocos que se venden, siguen diciendo que toda la responsabilidad es del conductor, es decir, que solo es un "asistente" pero que el conductor tiene que estar al 100% pendiente (cosa que no suele hacer, como la mujer que iba viendo la TV).

Por aquí hablan del tema: theguardian.com/commentisfree/.

@GeEfe @kAlvaro

Sign in to participate in the conversation
redNiboe

Comunidad fediversal para productores y curadores de conocimiento. Lenguajes: Español, Português, otras lenguas nuestroamericanas.