¿Qué pinta un filósofo en Google?
#1
¿Ciencias o letras? Ambas. Las empresas tecnológicas crean equipos multidisciplinares con presencia de perfiles humanistas.


Un coche autónomo va a tener un accidente y debe decidir si estrellar a sus pasajeros contra un árbol o atropellar a los peatones que cruzan la calle.
Para enseñar al automóvil a tomar estas decisiones morales, hay filósofos que trabajan con los desarrolladores que diseñan la inteligencia de los vehículos. La transformación que vivimos nos lleva a pensar que las carreras de ciencia, tecnología, ingeniería y matemáticas son el futuro pero, si lo analizamos, entenderemos que ese filósofo es imprescindible para enseñar a las máquinas a tomar decisiones. Es solo un ejemplo de las funciones que desempeñan los profesionales de humanidades en las empresas de tecnología.
Las compañías que desarrollan inteligencia artificial necesitan sociólogos y filósofos que les ayuden a entender lo que implica que convivamos con máquinas inteligentes. Dentro de poco estos protocolos éticos serán indispensables. Las empresas que trabajan en realidad virtual necesitan a historiadores o arqueólogos si quieren representar un entorno de la Edad Media o del Jurásico. Los sociólogos son clave para analizar la repercusión de la tecnología en los usuarios y los psicólogos ayudan, por ejemplo, a diseñar herramientas de prevención de suicidios en redes sociales.


Muchos profesionales de humanidades ya engrosan las filas de tecnológicas como Facebook, Samsung, Google y Microsoft. “Necesitamos un equipo que incluya a trabajadores con diferentes capacidades y conocimientos, no solo tecnológicos, también especialistas en filosofía o arte, capaces de ir más allá en aspectos como el análisis de cuestiones éticas relacionadas con el uso de la IA”, explica Luisa Izquierdo, directora de recursos humanos de Microsoft Ibérica. En esta empresa hay lingüistas, sociólogos y guionistas trabajando en el desarrollo de Cortana, su asistente virtual. “Cortana es distinta dependiendo del país. No tiene el mismo sentido del humor, por ejemplo, en España que en Reino Unido o China”, explica Izquierdo.

De esto sabe Google, que incluye a estos perfiles en la toma de decisiones. Utiliza el análisis de datos como base para decidir pero incluye a profesionales de humanidades para que las resoluciones sean lo más robustas posibles. “Por un lado, tenemos a un grupo de expertos en ciencia de datos, matemáticos e investigadores de mercado. Por otro, a gente de sociología y humanidades. El trabajo común hace que el resultado tenga lo más empírico del dato y lo más racional de los trabajadores”, explica Javier Martín, director de RR HH de Google España.

Sin embargo, esta empresa tecnológica reconoce que en España la tendencia solo está empezando. Por el momento, una universidad pública ha apostado por la colaboración de gente de letras y de ciencias: la UNED creó en 2014 el Laboratorio de Innovación de Humanidades Digitales. Allí, grupos de filólogos e ingenieros forman equipos multidisciplinares para desarrollar productos. “Los perfiles de humanidades aparecen en esta ecuación. El contenido y el conocimiento que hay que darle a estos productos está en esas disciplinas”, explica Salvador Ros, miembro del laboratorio.

En el laboratorio enseñan a las máquinas a entenderte cuando les hablas. Ros indica que la tecnología es una herramienta que necesita el conocimiento de los filólogos para sacar adelante los productos. “Es una simbiosis. Los ingenieros nos encargamos de las infraestructuras y los algoritmos. La gente de humanidades nos dice qué buscar, qué preguntas resolver y cómo interpretar la información”, explica Ros. “Yo leo los datos y veo números y vectores; necesito a un lingüista que los interprete”.
Los humanistas añaden sensibilidad artística al diseño digital; la observación antropológica a la adopción de nuevas tecnologías o la lógica y empatía humanas a la interacción con los robots. “El mundo ya no es de ciencias o letras, en la conjunción está la clave del éxito. Las empresas que sepan incorporar este mix de capacidades y sensibilidades estarán mejor capacitadas para ganar la carrera digital”, señala Luis Díaz, director de talento y organización en Accenture España.
“Estamos asistiendo a una incipiente, pero más que justa (y necesaria), reivindicación de las humanidades en la economía digital, que tiene su exponente más visible en las empresas tecnológicas de primer nivel con un CEO ‘de letras”. Díaz se refiere a Peter Thiel, fundador de Paypal, que es filósofo; o Frederic Mazzella, de BlaBlaCar, que es músico. Los expertos señalan que las carreras de humanidades estimulan el razonamiento abstracto, permiten pensar con profundidad y hacer que sus profesionales sean más abiertos de mente, con razonamiento lógico y capacidad de innovación. Cualidades necesarias en cualquier líder digital.

Una variable de esta situación son los new collar jobs, trabajos en los que se tiene en cuenta las habilidades más allá de la formación. En el programa desarrollado por IBM, que estimula la nueva formación de estos profesionales, se encuentran novelistas que trabajan de programadoras y crean a mitad de camino entre el arte y el código; o a profesores de instituto que se pasaron a la ciberseguridad. Esta es una de las claves que otros expertos defienden como el futuro de los trabajos.

Javier Ordóñez, profesor de la Universidad Autónoma de Madrid, asegura que el futuro será de la gente con formación flexible. La Universidad tendrá que cambiar, evitar ser una “máquina expendedora de personas especializadas, y crear plataformas en las que las personas puedan reciclarse en profesiones punteras”. Aboga por que los profesionales sean versátiles en lugar de estar especializados: los robots que lleguen ya serán los mejores en hacer lo que hagan.


Fuente: https://retina.elpais.com/retina/2018/02...29432.html





¿Pensáis que el concepto ciencias o letras está desfasado, o bien que es una diferenciación que siempre existirá? ¿Qué consideráis mejor, especializarse mucho o aprender a ser adaptables al cambio y estar en proceso de constante aprendizaje? ¿Cómo creéis que debería enfocarse la Universidad para formar a gente competente laboralmente?
Debatamos amistosamente.
Est enim iudices haec non scripta sed nata lex quam non didicimus accepimus legimus uerum ex natura ipsa arripuimus hausimus expressimus ad quam non docti sed facti non instituti sed imbuti sumus.
Reply
#2
¿No había una letra más grande?

Supongo que será una revista para ciegos porque se llama "Retina" y las letras tienen un tamaño jurásico.
Reply
#3
Pienso que la Inteligencia Artificial no funciona así, y es una de las grandes magufadas que están colando para tratar de recolocar a esta gente. Es curioso porque hace nada estuve en una conferencia que dio un grupo de la universidad de oviedo que trabaja en IA y surgió esta misma pregunta.

Hay un error de base gordísimo en la sociedad en creer que la meta de la inteligencia artificial es que una máquina piense como un humano. El objetivo es que una máquina RESUELVA PROBLEMAS HUMANOS, PERO A SU MANERA. Es decir, una máquina no va a "razonar", ni tiene que "empatizar". En el caso de tener que discernir entre un árbol y un coche, lo que hace el software es a través de imágenes (transformadas en matrices de números) identificar PERSONA o ÁRBOL y actuar en consecuencia. Una máquina no piensa si está bien o mal hacer algo, actúa en base a patrones que ella misma desarrolla o le son implementados. Sabes que no quiero meterme contigo (tq) pero por cosas como estas odio al Puto País cuando escriben cosas de ciencia, o a la divulgación científica. Dios, es que está todo SUPER MAL XD

Otra cosa es la segunda parte, donde entra en juego la ética del empleo de las máquinas, y donde sí considero que la gente de humanidades tenga algo que decir. Por ejemplo, una IA lo que hace esencialmente es coger datos y ofrecerte en Amazon lo óptimo, lo cual desde el punto de vista de ética/marketing sí que puede plantear debate. Con lo de cómo reconocer patrones lingüísticos, más de lo mismo, ahí también veo su potencial habilidad cómo algo útil.

Pero repito, por activa y por pasiva, el objetivo de las IA NO es pensar como una persona, sustituir a una persona, tener código moral o sentimientos. La inteligencia artificial no funciona así por definición, es que joder, por qué siempre escriben mierda desinformadora, me he puesto hasta de mal humor.

Luego voy con tus preguntas, que son lo jugoso del hilo, pero tenía primero que hacer la corrección de turno.
(01-06-2018, 12:55 PM)PrincipeVegetaFinalFlash Wrote: Algunos os pensáis que ser adulto es andar con cara seria y hablar de lo que te cuesta la hipoteca, cuando en realidad se trata de torear subnormales.

Reply
#4
Se van a meter la misma hostia que en USA.

Básicamente lo que va a pasar:

1) Alguien crea un modelo que hace tal cosa. Por ejemplo, convierte palabras en vectores.

2) Se lo llevan a una facultad de CCSS.

3) En la facultad, después de tratar de probarlo en muchas cosas les dicen que su utilidad es muy limitada.

4) Hay demasiado dinero invertido, asi que se mete más márketing y se le intenta enchufar a todo cristo.


Básicamente el estado de la """""""""""IA"""""""""" a día de hoy. Problemas que se resuelven perfectamente bien con algoritmos, estadística inferencial sin pretensiones y un par de servidores se convierten en Big Data y Machine Learning.

A mí me da puta verguenza cada vez que lo veo. Lo último que he visto es Machine Learning para hacer predicciones de ventas, sin prestar atención los fundamentos del problema ni nada. La gente es tonta del culo, es una conclusión a la que llego cíclicamente.
Reply
#5
(19-04-2018, 04:55 PM)Faraday Wrote: Pienso que la Inteligencia Artificial no funciona así, y es una de las grandes magufadas que están colando para tratar de recolocar a esta gente. Es curioso porque hace nada estuve en una conferencia que dio un grupo de la universidad de oviedo que trabaja en IA y surgió esta misma pregunta.

Hay un error de base gordísimo en la sociedad en creer que la meta de la inteligencia artificial es que una máquina piense como un humano. El objetivo es que una máquina RESUELVA PROBLEMAS HUMANOS, PERO A SU MANERA. Es decir, una máquina no va a "razonar", ni tiene que "empatizar". En el caso de tener que discernir entre un árbol y un coche, lo que hace el software es a través de imágenes (transformadas en matrices de números) identificar PERSONA o ÁRBOL y actuar en consecuencia. Una máquina no piensa si está bien o mal hacer algo, actúa en base a patrones que ella misma desarrolla o le son implementados. Sabes que no quiero meterme contigo (tq) pero por cosas como estas odio al Puto País cuando escriben cosas de ciencia, o a la divulgación científica. Dios, es que está todo SUPER MAL XD

Otra cosa es la segunda parte, donde entra en juego la ética del empleo de las máquinas, y donde sí considero que la gente de humanidades tenga algo que decir. Por ejemplo, una IA lo que hace esencialmente es coger datos y ofrecerte en Amazon lo óptimo, lo cual desde el punto de vista de ética/marketing sí que puede plantear debate. Con lo de cómo reconocer patrones lingüísticos, más de lo mismo, ahí también veo su potencial habilidad cómo algo útil.

Pero repito, por activa y por pasiva, el objetivo de las IA NO es pensar como una persona, sustituir a una persona, tener código moral o sentimientos. La inteligencia artificial no funciona así por definición, es que joder, por qué siempre escriben mierda desinformadora, me he puesto hasta de mal humor.

Luego voy con tus preguntas, que son lo jugoso del hilo, pero tenía primero que hacer la corrección de turno.

No soy nada fan del país, no jodas Big Grin yo tampoco, pero el artículo tiene miga para bien y para mal, por eso decidí compartirlo aquí.
No me meto en el campo técnico de la IA porque sería hablar desde la barra del bar, me centro más en el tema del cambio que está suponiendo, en empresas que hasta hace apenas ¿diez años? buscaban a perfiles mayoritariamente técnicos y ahora están cobrando importancia los perfiles híbridos, y en la llegada inminente de los robots, que van a llegar nos guste o no y creo que va a ser una putada para muchos que se van a ver en el "renovarse o morir".
Parece que va a cambiar eso de "las letras para los tontos, y las ciencias para los listos", y me quedo con esta frase del artículo "Es una simbiosis. Los ingenieros nos encargamos de las infraestructuras y los algoritmos. La gente de humanidades nos dice qué buscar, qué preguntas resolver y cómo interpretar la información"
Lo que veo es que no nos está formando en este cambio de paradigma y seguimos con la tónica de aprender muchos tecnicismos y vomitarlos en el examen, y que no se enseña a trabajar en equipos multidisciplinares, siempre barremos para nuestro terreno de "lo mío es lo mejor" "yo valgo para X,  y y Z" sin plantar más opciones, ni nos enseñan ni nos damos cuenta que uniendo diferentes maneras de pensar, puede ser más fácil encontrar respuestas. Y eso dentro de no mucho va a ser un problema, porque los cambios vienen y no nos vamos a saber adaptar.
Est enim iudices haec non scripta sed nata lex quam non didicimus accepimus legimus uerum ex natura ipsa arripuimus hausimus expressimus ad quam non docti sed facti non instituti sed imbuti sumus.
Reply
#6
(20-04-2018, 09:31 PM)Lupicinia Pisabarros Wrote:
(19-04-2018, 04:55 PM)Faraday Wrote: Pienso que la Inteligencia Artificial no funciona así, y es una de las grandes magufadas que están colando para tratar de recolocar a esta gente. Es curioso porque hace nada estuve en una conferencia que dio un grupo de la universidad de oviedo que trabaja en IA y surgió esta misma pregunta.

Hay un error de base gordísimo en la sociedad en creer que la meta de la inteligencia artificial es que una máquina piense como un humano. El objetivo es que una máquina RESUELVA PROBLEMAS HUMANOS, PERO A SU MANERA. Es decir, una máquina no va a "razonar", ni tiene que "empatizar". En el caso de tener que discernir entre un árbol y un coche, lo que hace el software es a través de imágenes (transformadas en matrices de números) identificar PERSONA o ÁRBOL y actuar en consecuencia. Una máquina no piensa si está bien o mal hacer algo, actúa en base a patrones que ella misma desarrolla o le son implementados. Sabes que no quiero meterme contigo (tq) pero por cosas como estas odio al Puto País cuando escriben cosas de ciencia, o a la divulgación científica. Dios, es que está todo SUPER MAL XD

Otra cosa es la segunda parte, donde entra en juego la ética del empleo de las máquinas, y donde sí considero que la gente de humanidades tenga algo que decir. Por ejemplo, una IA lo que hace esencialmente es coger datos y ofrecerte en Amazon lo óptimo, lo cual desde el punto de vista de ética/marketing sí que puede plantear debate. Con lo de cómo reconocer patrones lingüísticos, más de lo mismo, ahí también veo su potencial habilidad cómo algo útil.

Pero repito, por activa y por pasiva, el objetivo de las IA NO es pensar como una persona, sustituir a una persona, tener código moral o sentimientos. La inteligencia artificial no funciona así por definición, es que joder, por qué siempre escriben mierda desinformadora, me he puesto hasta de mal humor.

Luego voy con tus preguntas, que son lo jugoso del hilo, pero tenía primero que hacer la corrección de turno.

No soy nada fan del país, no jodas Big Grin yo tampoco, pero el artículo tiene miga para bien y para mal, por eso decidí compartirlo aquí.
No me meto en el campo técnico de la IA porque sería hablar desde la barra del bar, me centro más en el tema del cambio que está suponiendo, en empresas que hasta hace apenas ¿diez años? buscaban a perfiles mayoritariamente técnicos y ahora están cobrando importancia los perfiles híbridos, y en la llegada inminente de los robots, que van a llegar nos guste o no y creo que va a ser una putada para muchos que se van a ver en el "renovarse o morir".
Parece que va a cambiar eso de "las letras para los tontos, y las ciencias para los listos", y me quedo con esta frase del artículo "Es una simbiosis. Los ingenieros nos encargamos de las infraestructuras y los algoritmos. La gente de humanidades nos dice qué buscar, qué preguntas resolver y cómo interpretar la información"
Lo que veo es que no nos está formando en este cambio de paradigma y seguimos con la tónica de aprender muchos tecnicismos y vomitarlos en el examen, y que no se enseña a trabajar en equipos multidisciplinares, siempre barremos para nuestro terreno de "lo mío es lo mejor" "yo valgo para X,  y y Z" sin plantar más opciones, ni nos enseñan ni nos damos cuenta que uniendo diferentes maneras de pensar, puede ser más fácil encontrar respuestas. Y eso dentro de no mucho va a ser un problema, porque los cambios vienen y no nos vamos a saber adaptar.

Bueno, pero no es tan así. El artículo hace un análisis muy simplista de la demanda que hay. Hay que hacer mucho mucho énfasis en el tema de los híbridos.

Primero, porque esas empresas buscan ciertos perfiles de humanidades, pero por cada perfil de humanidades que meten, contratan otros diez ingenieros. Y hay un motivo para eso: Los especialistas son mucho más productivos. Tener un perfil mixto ayuda... Si vienes de humanidades (en el contexto de trabajar en este sector, obviamente).

Y segundo, porque buscan gente con un perfil de humanidades muy muy específico. Te pongo el caso de mi empresa: La gente que traemos de carreras relacionadas tiene un fuerte conocimiento de estadística e investigación (tienen que saber al menos qué es un t-test) y no se asusta de agarrar un programa relativamente técnico. Es más, saber SQL básico es casi un requisito. Si bien se puede conseguir ese tipo de perfil en la universidad, la mayor parte de las carreras de humanidades no van enfocada en ese lado. En general, las que tienen más agarres son especialidades como psicología precisamente porque requieren ese conocimiento técnico. No filosofía, y no lingüística.

Todo esto en el contexto de España, claro. En EEUU la universidad funciona de otra manera y no es tan alocado encontrarte un lingüística que hizo cursos avanzados de estadística.

El artículo es un poco simplista. Pero yo apuntaría que el modelo universitario español es un poco inflexible para adaptarse a lo que apunta el columnista.
Reply
#7
Estoy de acuerdo contigo en líneas generales, pero quiero hacer un apunte, y es que un filósofo puede no adquirir esos conocimientos en la carrera (no lo hace), pero podría adquirirlos después con formación complementaria. Digo filosofía como puedo decir cualquier otra carrera que no es técnica. El ejemplo que pones de SQL, para saberlo a nivel básico no es hace falta tener perfiles técnicos, en mi empresa hay bastantes de ADE que saben el poquitin de SQL que necesitan. Y luego, con ese poquito más las competencias propias de ADE hace que tengan un enfoque diferente a cualquier ingeniero que en la empresa es útil para X. Eso si, como dices, no son mayoría ni mucho menos, pero tienes la opción, que hace 20 años, ni eso.
Luego eso, que en España eso de enseñar a ser curiosos y reciclarse no se enseña.
¿Que diferencias tiene el sistema de USA con el español? Imagino que va más por la meritocracia, pero igual me equivoco.

Enviado desde mi Redmi Note 2 mediante Tapatalk
Est enim iudices haec non scripta sed nata lex quam non didicimus accepimus legimus uerum ex natura ipsa arripuimus hausimus expressimus ad quam non docti sed facti non instituti sed imbuti sumus.
Reply
#8
(21-04-2018, 10:40 AM)Lupicinia Pisabarros Wrote: Estoy de acuerdo contigo en líneas generales, pero quiero hacer un apunte, y es que un filósofo puede no adquirir esos conocimientos en la carrera (no lo hace), pero podría adquirirlos después con formación complementaria. Digo filosofía como puedo decir cualquier otra carrera que no es técnica. El ejemplo que pones de SQL, para saberlo a nivel básico no es hace falta tener perfiles técnicos, en mi empresa hay bastantes de ADE que saben el poquitin de SQL que necesitan. Y luego, con ese poquito más las competencias propias de ADE hace que tengan un enfoque diferente a cualquier ingeniero que en la empresa es útil para X. Eso si, como dices, no son mayoría ni mucho menos, pero tienes la opción, que hace 20 años, ni eso.
Luego eso, que en España eso de enseñar a ser curiosos y reciclarse no se enseña.
¿Que diferencias tiene el sistema de USA con el español? Imagino que va más por la meritocracia, pero igual me equivoco.

Enviado desde mi Redmi Note 2 mediante Tapatalk

Claro, pero eso te puede funcionar con SQL, pero no con estadística o con métodos de investigación. La parte más formal de las disciplinas técnicas es difícil aprenderlas por tu cuenta.

Y ahí es donde el sistema de USA viene lindo, porque te deja combinar especialidades de una manera que el (nuevo) sistema español no. El concepto de major y minor te permite muchas veces tener un perfil mucho más híbrido. Así que encontrarte con alguien que tiene un major en computer science y un minor en psicología (o en bellas artes) no es tan raro.

Eso está bueno porque da la oportunidad a esos perfiles híbridos y porque sirve de validación a las empresas. Entre un filólogo que hizo un curso por Internet de SQL y uno que cursó la materia "análisis de datos" en la universidad, todos se quedan con el primero.
Reply


Forum Jump:


Users browsing this thread: 1 Guest(s)