Hilo sesudo de economí­a polí­tica, anarquismo y empresarios hijosdeputa

Iniciado por Lacenaire, Octubre 27, 2010, 11:30:15 AM

Tema anterior - Siguiente tema

ushap

Cita de: Baku en Agosto 30, 2018, 09:27:05 PM
A mi me parecen chorradas.


A mi no,... tal vez porque en estos últimos meses, por temas de curro, he charlado con algunos comerciales (y también técnicos) de microsoft, IBM, Google,... y por el momento, yo me posiciono más cerca de las tesis de Elon Musk sobre todo lo relacionado con "machine learning". El potencial es enorme y por lo tanto no creo que haya que minimizar los riesgos.

45rpm

Esta de moda humanizarlo todo. Corren por redes videos de animales solidarios, bufalo defiende gacela, elefante rescata mono, gato juguetea con raton. Los animales ya no obedecen a su naturaleza sino al disneyworl de la red social.

Con las maquinas pasa la misma tonteria. Que si tienen memoria. Que si aprenden. Que si van a desarrollar conciencia pero adestruiran la humadida. Cuando humanizamos animales les atribuimos nuestro lado buenino pero cuando humanizamos machines nuestro lado oscuro. Pos muy bien.

Mientras leia el articulo -si, spaguetti articulo- pensaba, google, amazon y facebook, solo falta una cita a tesla para trufar la parrafada con toda la noveleria de moda.

Por supesto el articulo tiene cosas interesantes pero solo las suelta, no las procesa y entonces se queda en ese lio. Como dato intetesante una conclusion de un fisico remarcable, al que no citan. Imagino que da mas clicks citar google o facebook que a Penrose.

El asunto de la IA ya lo aclaro Penrose. Que el algoritmo de google atropelle peatones es una buena noticia para su teoria. El mundo es determinista pero ese determinismo no es computable. Si Google os dijera que van a sacar un coche con algoritmo infalible, vended ya vuestras acciones. Es imposible. En cambio comprad si google os dice que su algoritmo matara peatones pero 10 veces menos que los atropellados por el amigo conductor.

Ah pero vended de nuevo si los que matan es por culpa de que el "algoritmo aprende" - y aprende mal porque los algoritmos son oscuros y a lo mejor pronto seran nuestro padre-. En cambio comprad si os dice que matan por lo de toda la vida, por culpa de un bug del programador o de una contingencia no prevista.

Lacenaire

Cita de: Baku en Agosto 30, 2018, 09:27:05 PM
A mi me parecen chorradas.

Hombre, tú sabrás más del tema pero el tipo de TG (ha escrito varios artículos al respecto) deja claro que según todos los expertos con los que ha hablado lo de la emergencia de la IA es algo totalmente Sci-Fy por lo que respecta al estado actual de las cosas. Que tendría que haber un descubrimiento revolucionario y acojonante para poder hablar de algo así. Lo que interpreto es que el miedo viene de la emergencia de patrones inesperados en el funcionamiento de los algoritmos y que por su misma naturaleza y utilidad - hacer un cerro de operaciones en microsegundos- allí donde se emplean se está generando una bola de inestabilidad cuyo desarrollo no es trazable o lo es solo mediando esfuerzos titánicos y absurdos, y aún así.

Si en un juicio por atropello hubo que liar la de Dios para demostrar que no fue un error humano, pero tampoco un fallo de diseño o programación, sino "otra cosa" -la deriva del algoritmo, su aprendizaje o whatever- a ver cómo hacemos cuando haya que juzgar crímenes de guerra cometidos por drones, por ejemplo.

Lo que saco yo al final es que como siempre la tecnología se implementa primero y luego, pasado cierto tiempo y cuando ya ha causado un daño casi irreparable, nos plantearemos ponerle cortafuegos ley mediante.-------nos quedan los códigos deontológicos de Google y los contratistas milit...(rellenar espacio con smilys)

Lacenaire

Cita de: 45rpm en Agosto 31, 2018, 09:00:16 AM
Esta de moda humanizarlo todo. Corren por redes videos de animales solidarios, bufalo defiende gacela, elefante rescata mono, gato juguetea con raton. Los animales ya no obedecen a su naturaleza sino al disneyworl de la red social.

Con las maquinas pasa la misma tonteria. Que si tienen memoria. Que si aprenden. Que si van a desarrollar conciencia pero adestruiran la humadida. Cuando humanizamos animales les atribuimos nuestro lado buenino pero cuando humanizamos machines nuestro lado oscuro. Pos muy bien.

Mientras leia el articulo -si, spaguetti articulo- pensaba, google, amazon y facebook, solo falta una cita a tesla para trufar la parrafada con toda la noveleria de moda.

Por supesto el articulo tiene cosas interesantes pero solo las suelta, no las procesa y entonces se queda en ese lio. Como dato intetesante una conclusion de un fisico remarcable, al que no citan. Imagino que da mas clicks citar google o facebook que a Penrose.

El asunto de la IA ya lo aclaro Penrose. Que el algoritmo de google atropelle peatones es una buena noticia para su teoria. El mundo es determinista pero ese determinismo no es computable. Si Google os dijera que van a sacar un coche con algoritmo infalible, vended ya vuestras acciones. Es imposible. En cambio comprad si google os dice que su algoritmo matara peatones pero 10 veces menos que los atropellados por el amigo conductor.

Ah pero vended de nuevo si los que matan es por culpa de que el "algoritmo aprende" - y aprende mal porque los algoritmos son oscuros y a lo mejor pronto seran nuestro padre-. En cambio comprad si os dice que matan por lo de toda la vida, por culpa de un bug del programador o de una contingencia no prevista.

Hay que olvidarse de Skynet y tal. La comparación más acertada es la del juicio por la Talidomida. Otro sería el de P&M cuando se demostró juicialmente que el tabaco es veneno. En todos los casos hablamos de un problema de hipercomplejidad  (perdón). Y en este caso además de una hipercomplejidad que se desvincula de la mano de la fábrica-programación. Quién ha sido/Yo no fui.

Baku

Cita de: Gipsy King en Agosto 31, 2018, 09:28:15 AM
Cita de: Baku en Agosto 30, 2018, 09:27:05 PM
A mi me parecen chorradas.

Hombre, tú sabrás más del tema pero el tipo de TG (ha escrito varios artículos al respecto) deja claro que según todos los expertos con los que ha hablado lo de la emergencia de la IA es algo totalmente Sci-Fy por lo que respecta al estado actual de las cosas. Que tendría que haber un descubrimiento revolucionario y acojonante para poder hablar de algo así. Lo que interpreto es que el miedo viene de la emergencia de patrones inesperados en el funcionamiento de los algoritmos y que por su misma naturaleza y utilidad - hacer un cerro de operaciones en microsegundos- allí donde se emplean se está generando una bola de inestabilidad cuyo desarrollo no es trazable o lo es solo mediando esfuerzos titánicos y absurdos, y aún así.

Si en un juicio por atropello hubo que liar la de Dios para demostrar que no fue un error humano, pero tampoco un fallo de diseño o programación, sino "otra cosa" -la deriva del algoritmo, su aprendizaje o whatever- a ver cómo hacemos cuando haya que juzgar crímenes de guerra cometidos por drones, por ejemplo.

Lo que saco yo al final es que como siempre la tecnología se implementa primero y luego, pasado cierto tiempo y cuando ya ha causado un daño casi irreparable, nos plantearemos ponerle cortafuegos ley mediante.-------nos quedan los códigos deontológicos de Google y los contratistas milit...(rellenar espacio con smilys)

El batiburrillo que mezcla en el artículo es incomprensible, al menos para mi, no tiene sentido mezclar los vehículos autónomos con las máquinas que aprenden a jugar al go, con las cagadas de Wall Street con los sistemas complejos y la emergencia de IA, al menos no a estas alturas de la película. Hace décadas que ya venían con estas historias de miedo con las redes neuronales y aquí seguimos.
It's very difficult todo esto.

Lacenaire

¿No es lo mismo? Una misma tecnología aplicada a sectores distintos. La electricidad puede iluminar una pantalla o accionar un mono con platillos. Sigue siendo electricidad.

Baku

Cita de: Gipsy King en Agosto 31, 2018, 09:52:04 AM
¿No es lo mismo? Una misma tecnología aplicada a sectores distintos. La electricidad puede iluminar una pantalla o accionar un mono con platillos. Sigue siendo electricidad.

Sí, y una ameba se forma a partir de carbono igual que un ser humano luego son lo mismo. Esas comparaciones simplistas no me aportan mucho.
It's very difficult todo esto.

45rpm

Cita de: Gipsy King en Agosto 31, 2018, 09:40:11 AM
Cita de: 45rpm en Agosto 31, 2018, 09:00:16 AM
Esta de moda humanizarlo todo. Corren por redes videos de animales solidarios, bufalo defiende gacela, elefante rescata mono, gato juguetea con raton. Los animales ya no obedecen a su naturaleza sino al disneyworl de la red social.

Con las maquinas pasa la misma tonteria. Que si tienen memoria. Que si aprenden. Que si van a desarrollar conciencia pero adestruiran la humadida. Cuando humanizamos animales les atribuimos nuestro lado buenino pero cuando humanizamos machines nuestro lado oscuro. Pos muy bien.

Mientras leia el articulo -si, spaguetti articulo- pensaba, google, amazon y facebook, solo falta una cita a tesla para trufar la parrafada con toda la noveleria de moda.

Por supesto el articulo tiene cosas interesantes pero solo las suelta, no las procesa y entonces se queda en ese lio. Como dato intetesante una conclusion de un fisico remarcable, al que no citan. Imagino que da mas clicks citar google o facebook que a Penrose.

El asunto de la IA ya lo aclaro Penrose. Que el algoritmo de google atropelle peatones es una buena noticia para su teoria. El mundo es determinista pero ese determinismo no es computable. Si Google os dijera que van a sacar un coche con algoritmo infalible, vended ya vuestras acciones. Es imposible. En cambio comprad si google os dice que su algoritmo matara peatones pero 10 veces menos que los atropellados por el amigo conductor.

Ah pero vended de nuevo si los que matan es por culpa de que el "algoritmo aprende" - y aprende mal porque los algoritmos son oscuros y a lo mejor pronto seran nuestro padre-. En cambio comprad si os dice que matan por lo de toda la vida, por culpa de un bug del programador o de una contingencia no prevista.

Hay que olvidarse de Skynet y tal. La comparación más acertada es la del juicio por la Talidomida. Otro sería el de P&M cuando se demostró juicialmente que el tabaco es veneno. En todos los casos hablamos de un problema de hipercomplejidad  (perdón). Y en este caso además de una hipercomplejidad que se desvincula de la mano de la fábrica-programación. Quién ha sido/Yo no fui.

Si el tema va de quitarse los muertos de encima ahi lo que hace falta es un buen abogado y sobre todo un equipo de lobistas en washington o bruselas para que las leyes protejan a quien deben proteger. La complejidad del algoritmo me parece una buena excusa para ello, pero excusa.

No se  debe lanzar una aplicacion cuyo codigo no se entienda. Si no se entiende hay que reescribir hasta que se entienda  pero si la lanzan sin entendelrla son incompetentes.  Si se argumenta que el algoritmos tienen vida propia habria que meterlos en prision por doble motivo. Por ineptos y por irresponsables. Pero esto ultimo un buen abogado sabra evitarlo y colarle al sr juez eso de la vida propia algoritmica

PP2000

No se debe lanzar una aplicación cuyo código no se entienda... exceptuando si es una aplicación diseñada para generar código según sus reglas de aprendizaje, que haber como vas a lanzar sw y no lanzarlo a la vez.

Baku

Cita de: PP2000 en Agosto 31, 2018, 07:57:58 PM
No se debe lanzar una aplicación cuyo código no se entienda... exceptuando si es una aplicación diseñada para generar código según sus reglas de aprendizaje, que haber como vas a lanzar sw y no lanzarlo a la vez.

Hay que joderse con los ingenieros.
It's very difficult todo esto.

PP2000

No he programado una línea en mi vida, supongo que soy flexisexual usando la palabra "código"... me refiero a que las bases de datos que vómita como fuerte de sw el sw del 'Ejemplo" pues... pues se chequea en función de su éxito, es imposible chequear otra cosa:

https://en.m.wikipedia.org/wiki/Unsupervised_learning

Baku

Cita de: PP2000 en Agosto 31, 2018, 10:01:35 PM
No he programado una línea en mi vida, supongo que soy flexisexual usando la palabra "código"... me refiero a que las bases de datos que vómita como fuerte de sw el sw del 'Ejemplo" pues... pues se chequea en función de su éxito, es imposible chequear otra cosa:

https://en.m.wikipedia.org/wiki/Unsupervised_learning

Al final todo es potencia de cálculo y nada más. Una verdadera IA, emergente o no, jamás seguiría pautas absurdas o, al menos, sería capaz de explicar por qué lo hace. Hay un salto muy grande entre eso, una pauta emergente,  y la inteligencia, consciencia o como lo quieras llamar.

60 años de pajas mentales con la IA.
It's very difficult todo esto.

PP2000

Ya, no me refería a IA cuando hablaba de sw, sw que regule el reconocimienyo de patrones está de la autoconsciencia humana lo mismo que los primeros fotosensores en placton marino (no obstante el cerebro nace de la retina porque literalmente le debe su origen).

Baku

Cita de: PP2000 en Agosto 31, 2018, 10:15:56 PM
Ya, no me refería a IA cuando hablaba de sw, sw que regule el reconocimienyo de patrones está de la autoconsciencia humana lo mismo que los primeros fotosensores en placton marino (no obstante el cerebro nace de la retina porque literalmente le debe su origen).

Los ojos han aparecido varias veces en la evolución, conocemos sólo los que han tenido éxito, ¿por qué suponer que la actual o cualquier futura versión de nuestras actuales implementaciones van a tener éxito? ¿Cómo saber que no vas a apagar la máquina buena por sus pobres resultados actuales frente a prometedores fracasos a posteriori?
It's very difficult todo esto.

Baku

It's very difficult todo esto.