Skip to content

Latest commit

 

History

History
70 lines (37 loc) · 11.3 KB

examen-teorico.md

File metadata and controls

70 lines (37 loc) · 11.3 KB

Examen de Periodismo de Datos de la alumna Rocío Cruz Moya

Pregunta 1: ¿Qué medio inglés es fundamental en el periodismo y la visualización de datos?

Hoy en día, el medio inglés fundamental dentro del panorama del periodismo y la visualización de datos es The Guardian. Su fama en este ámbito se debe a su faceta pionera en el periodismo de datos moderno. Hay que destacar también que el periodismo moderno que conocemos actualmente emana de aquel periodismo originado en los años 2006-2008, cuya combinación de factores se centraba en la abundancia de código abierto, HTML5 y Open Data.

Pregunta 2: ¿De dónde viene el nombre de Jupyter?

Podemos entender Jupyter como un proyecto de aplicación web que mantiene el paradigma de programación conocido como “programación literaria”. Este proyecto comprende también uno de los editores que permiten utilizar el lenguaje de programación Markdown. Su formato incluye limpieza y conversión de datos, simulación numérica, modelado estadístico y máquinas. Finalmente, el origen de su denominación se remonta a tres lenguajes que se emplean en el entorno: Julia, Python y R. De esta forma, se une el inicio de todos ellos (Ju-Pyt-(e)R).

Pregunta 3: ¿Qué es Internet?

Podemos definir Internet como una red de redes, es decir, una red de ordenadores interconectados a nivel mundial. Además de esta definición, Internet funciona gracias a los protocolos TCP/IP. Estos responden a Transmission Control Protocol o “protocolo de control de la transmisión”. En una red TCP/IP hay alrededor de 65500 puertos de escucha o de comunicación posible. Finalmente, utilizamos internet para acceder a la web (término que defino en la siguiente pregunta).

Pregunta 4: ¿Qué es la Web?

Podemos definir la Web como una colección de páginas establecidas sobre la red de computadoras de Internet. Esta red informática mundial funciona a través del sistema de Internet y sirve para transmitir datos (mediante el “Protocolo de Transferencia de Hipertextos” o HTTP, que son los enlaces de la página web) permitiendo acceder a un gran número de contenidos. En una red TCP/IP hay alrededor de 65500 puertos de escucha o de comunicación posible. La Web utiliza uno de ellos al menos, el 80.

Las Webs también tienen la función de web apps o aplicaciones web, esto quiere decir que a través de ellas se puede acceder a servicios de correo electrónico y mensajería instantánea que operan en los otros puertos y nos los muestran en un entorno web. Actualmente, funcionamos con la versión original del protocolo, la denominada IPv4, que permitía hasta 4.300 millones de direcciones. Como se vio que se iba a quedar corto se empezó a trabajar en la versión IPv6, la cual hoy en día funciona también, pero conviven ambas.

Adicionalmente, en el panorama web es útil utilizar una API (interfaz de programación de acceso, es decir, los códigos para comunicarse con una web), debido a su capacidad para publicar o cambiar datos. HTTP es una de las APIs más sencillas y conocidas. Los navegadores web más conocidos son: Mozilla Firefox, Google Chrome, Opera, Safari y Microsoft Edge.

Pregunta 5: ¿ Qué significa URL?

Podemos definir URL como un localizador de recursos uniformes Unified Resource Locator. Es decir, la URL significa la dirección única de la web (uno de los servicios de red de Internet donde su recurso sería la URL).

Según Mozilla.org, la URL junto con el hipertexto (expresado en HTML) y HTTP son los conceptos claves de la Web. Cada URL válida apunta a un único recurso.

Adicionalmente, la URL se compone de tres partes:

  • https://, que indica el protocolo usado, https en el dominio que sea. La separación entre protocolo y dominio se realiza con ://.
  • El dominio www.theguardian.com, es decir, lo que va entre :// y la primera /. El dominio se lee de derecha a izquierda en orden de importancia.
  • Y, finalmente, .com es el TLD, Top Level Domain o dominio de primer nivel.

Pregunta 6: ¿Dónde se produce el funcionamiento cliente-servidor?

Entendiendo la red cliente-servidor como una red de comunicaciones en la que los clientes están conectados a un servidor y se centralizan los diversos recursos y aplicaciones para ponerlos a disposición de los clientes cada vez que estos son solicitados, el funcionamiento cliente-servidor de acuerdo con lo que hemos aprendido en la asignatura, se produce en el localhost, es decir, en nuestro propio ordenador. En una estructura cliente servidor, el localhost sirve para funcionar una aplicación-cliente contra su servidor en el mismo equipo.

Uno de los aspectos que vimos durante las clases con respecto a los servidores web y las peticiones http desde el navegador como cliente, fue la arquitectura cliente-servidor. De hecho, sabemos que esto se ha de relacionar con Git. Ya que, dentro de sus múltiples funciones, nos habituamos a un software cliente/servidor.

Pregunta 7: ¿Qué relación tiene CSV con Excel?

La relación que tiene CSV con Excel radica en que esta última es una aplicación que permite la visualización de datos tabulados y, el formato de datos CSV (la mayoría de las bases de recursos disponibles en los catálogos de datos abiertos se encuentran en este formato), representa los datos separados por comas (Comma Separated Values), haciendo una especie de tabla en filas y columnas. Las columnas quedan definidas por cada punto y coma (;), mientras que cada fila se define a través de una línea adicional en el texto. Ambas herramientas facilitan el proceso de tratamiento de datos.

Pregunta 8: ¿Quién es Philip Meyer?

Philip Meyer es uno de los pioneros en el bautizo de la denominación de lo que hoy conocemos como “Periodismo de datos”. En el año 1960 Meyer bautizó esta disciplina como "Periodismo de precisión". A pesar de que puede parecer una disciplina reciente, a partir de este momento han sido muchos los nombres que se le han dado a esta disciplina, como "Periodismo guiado por datos", "Data Driven Journalism", o "Periodismo de base de datos".

Dentro del “Periodismo de precisión” (1969) se emplearon métodos de análisis de las ciencias sociales unido a software estadístico y ordenadores para construir una historia periodística lo definen como periodismo de precisión. Esta disciplina desmonta la teoría Riff-Raff (revuelta para para el avance) y la Assimilation (migraciones). Además, su trabajo se traduce en un libro fundamental: Precision Journalism: A Reporter’s Introduction to Social Science Methods (1973).

Contextualizando su carrera profesional, cabe señalar que Meyer comenzó su actividad periodística en The Miami Herald (1958-62). Su vinculación al periodismo de datos se debe a la queja del alto coste de los seguros escolares contra incendios y huracanes. Como dicho coste lo establecía un consejo de funcionarios, Meyer cruzó los nombres del consejo con personas de empresas. Esto dio como resultado que el 65% de la financiación de las campañas electorales procedían de empresarios de seguros.

Pregunta 9: ¿Quién fue Florence Nightingale?

Florence Nightingale (1820-1910) fue una enfermera, escritora y estadística cuyos orígenes profesionales se remontan a su estrecha relación con la visualización de datos. Fue creadora del primer modelo conceptual de enfermería y es considerada una de las pioneras de la enfermería moderna. Las causas de su fallecimiento se sitúan en la Guerra de Crimea. De hecho, Nightingale creó un diagrama que explicaba las personas que se podían salvar de dicha guerra, las que estaban graves y las que iban a fallecer.

Pregunta de desarrollo: ¿Qué es el periodismo de datos? ¿Cómo se relaciona con la visualización de datos?

Desde los años 60, vivimos en plena sociedad de la información. Esto quiere decir que la evolución del periodismo ha ido arraigada a la evolución de la sociedad de la información. Hemos pasado de la predominancia de la sociedad industrial a la de la industria del conocimiento. Hoy en día, estamos conviviendo con la prensa en la Web y pasando del entorno de escritorio -estático- al portátil y a los dispositivos electrónicos móviles.

El periodismo asistido por ordenadores sitúa su origen en EE.UU. (1950). Cuando empezó en Europa y EE.UU. en 2008 se denominó “periodismo guiado por datos”. La irrupción de los portales de datos abiertos hizo que se denominara Data Driven Journalism, aunque luego se acortó a Data Journalism, pero ambos términos conviven.

En EE.UU., por ejemplo, el precedente del periodismo de datos es el “periodismo de precisión”. José Luis Dader, catedrático de la Facultad de Ciencias de la Información de la UCM, pensó en "periodismo matemático", por su rigurosidad, pero era consciente de que no se entendía bien; pensó en "periodismo informático", pero se iba a malinterpretar; o "periodismo científico", pero se iba a confundir con el periodismo que habla de ciencia. Al final, se quedó con el original "periodismo de precisión" que al menos no inducía a errores y sí que hablaba de algo nuevo. Lo cierto es que se denominó así en EE.UU. para oponerse a un periodismo del estilo de Truman Capote. Esta denominación pervive en la actualidad.

Para referirse a los profesionales de este ámbito hay otras denominaciones en EE.UU. como la que la comunidad de computer assisted reporters ha creado: News Nerdery o los frikis de las redacciones. En Inglaterra, por ejemplo, la comunidad de periodistas de datos se ha denominado Journocoders o perioprogramadores. Y en EE.UU. también una comunidad pionera fue la denominada Hacks and Hackers. Hacks significa "hachazos" y se refiere al martilletear de teclear en la máquina de escribir. En Argentina, Sandra Crucianelli sigue hablando de "periodismo de bases de datos".

El periodismo de datos pone al servicio de la investigación unos datos, para hacer del periodismo una investigación más fiable. El periodismo de datos del que bebemos hoy en día surgió entre 2006 y 2008 y apareció por la combinación de varios factores: la abundancia de software de datos abiertos, HTML5 y Open Data. Tiene tres aspectos fundamentales: el periodismo, los datos y la visualización de datos Los tres son importantes, sin embargo, la visualización va más allá de la visualización como producto final. En la etapa de visualizar también realizamos análisis, aplicamos técnicas estadísticas, programas informáticos que hacen que de un gran volumen de datos seamos capaces de sacar hipótesis o conclusiones.

La relación entre el periodismo de datos y la visualización de datos la podemos encontrar en que esta última pertenece al funcionamiento del periodismo de datos tanto en la etapa de análisis como en la de la presentación de resultados. Es decir, no podemos hablar de periodismo y visualización sin análisis, pero la visualización remite también al análisis de datos. Por tanto, cuando hablamos de visualización de datos, nos referimos también a la visualización del análisis de los datos.

Finalmente, cabe señalar la labor del periodismo de datos en España mediante el trabajo del Grupo de Periodismo de Datos de Medialab-Prado, el cual lleva en funcionamiento desde el 20 de octubre de 2011. Entre sus actividades destacan las más de 30 Sesiones mensuales: talleres, charlas e intercambio de proyectos.