martes, 28 de junio de 2016

Marketing: Flujo de comunicación de dos pasos

Flujo de la comunicación de dos pasos
Wikipedia


El modelo de flujo de comunicación de dos pasos dice que la mayoría de la gente forma sus opiniones bajo la influencia de los líderes de opinión, y que éstos a su vez son influenciados por los medios de comunicación. En contraste con el flujo de un solo paso de la teoría hipodérmica o teoría de la bala mágica, que sostiene que las personas se ven influidos directamente por los medios de comunicación, de acuerdo con el modelo de flujo de dos pasos, las ideas fluyen de los medios de comunicación a los líderes de opinión, y de ellos a una población más amplia.

Productos básico

La teoría se basa en un estudio de 1940 en la influencia social que establece que los efectos de los medios se establecen indirectamente a través de la influencia personal de los líderes de opinión. La mayoría de las personas reciben gran parte de su información y se ven influidos por la segunda mano los medios de comunicación, a través de la influencia personal de los líderes de opinión.

Concepto

El modelo de dos etapas dice que la mayoría de las personas no se ven influidos directamente por los medios de comunicación, sino que más bien forman sus opiniones basadas en los líderes de opinión que interpretan los mensajes de los medios de comunicación y los ponen en contexto. Los líderes de opinión son los que inicialmente se expone a un contenido específico de los medios, y que se interpretan en base a su propia opinión. Entonces comienzan a infiltrarse en estas opiniones a través del público en general que se convierten en "seguidores de opinión". [1] Estos "líderes de opinión" aumento su influencia a través de más medios de élite en lugar de incorporar medios de comunicación. [2] En este proceso, la influencia social es creado y ajustado por los ideales y las opiniones de cada grupo "los medios de élite", así como por los ideales y las opiniones opuestas de estos grupos de medios de comunicación y en combinación con fuentes populares medios de comunicación. Por lo tanto, la influencia principal en estas opiniones es principalmente una persuasión social. [3]


Acerca de

El flujo de dos pasos de modelo de comunicación plantea la hipótesis de que las ideas fluyen de los medios de comunicación a los líderes de opinión, y de ellos a una población más amplia. Fue introducido por primera vez por el sociólogo Paul Lazarsfeld et al. en 1944 [4] y elaborados por Elihu Katz y Lazarsfeld en 1955 [5] y las subsiguientes publicaciones [6] Lowery y DeFleur argumentan que el libro era mucho más que un simple informe de investigación:. que era un esfuerzo para interpretar la investigación de los autores dentro de un marco de esquemas conceptuales, aspectos teóricos y resultados de la investigación dibujados en líneas generales desde el estudio científico de pequeños grupos [7] a diferencia de la teoría hipodérmica, que considera efectos de los medios masivos de ser directo, el modelo de flujo de dos pasos subraya la acción humana.

Según Lazarsfeld y Katz, la información de los medios de comunicación se canaliza a las "masas" a través de liderazgo de opinión. Las personas con más acceso a los medios de comunicación, y que tiene una comprensión más culta de contenido de medios, explican y difunden el contenido a otros.

Sobre la base de la hipótesis de flujo de dos pasos, el término "influencia personal" vino a ilustrar el proceso que media entre mensaje directo de los medios y la reacción del público a ese mensaje. Los líderes de opinión tienden a ser similares a los que basados ​​en influir en la personalidad, intereses, demografía, o los factores socioeconómicos. Estos líderes tienden a influir en otros para cambiar sus actitudes y comportamientos. La teoría de dos pasos refina la capacidad de predecir cómo los mensajes de los medios influyen en el comportamiento del público y explica por qué las campañas de determinados medios de comunicación no alteran actitudes de la audiencia. Esta hipótesis proporciona una base para la teoría del flujo de dos pasos de comunicación de masas. [8]


Flujo de dos pasos de la comunicación en la red Twitter (red de protesta chilena en torno a HidroAysén) [9]

Debate contemporáneo

En los tiempos de las redes sociales digitales, la teoría más de seis décadas de edad chispas mucho interés nuevo. El hecho de que las bases de datos masivas están siendo utilizados para enviar mensajes a medida que los individuos llevan de nuevo a la idea de un "flujo de un solo paso de la comunicación". [10] La idea es una especie de aguja hipodérmica / modelo bala mágica, con el la capacidad de análisis de datos grandes informó a la personalización en masa. Los estudios empíricos realizados por otros investigadores, por el contrario, han encontrado que las plataformas modernas de medios sociales, como Twitter, exhiben una clara evidencia de un flujo de dos pasos de la comunicación (véase la figura). [9] [11] Muchos usuarios de redes sociales obtienen sus noticias de celebridades u otros líderes de opinión de amplificación, que de nuevo reciba avisos por medios de comunicación o por personas con conocimientos específicos. La huella digital de grano fino de las redes sociales también sugiere que hay más que simplemente los modos de un solo paso y dos pasos de flujo de comunicación, lo que lleva la búsqueda de más complejos modelos de múltiple flujo basado en estructuras de red distintas. [9] [12 ]

Lazarsfeld y Katz

Paul Lazarsfeld y Elihu Katz son considerados como los fundadores de la teoría funcional y su libro Influencia Personal (1955) se considera que es el manual para la teoría.


Paul Felix Lazarsfeld

Uno de los primeros en embarcarse en la investigación de Comunicaciones, fue el primero en introducir la diferencia entre la "investigación administrativa" y "la investigación crítica» en lo que respecta a los medios de comunicación. La investigación crítica que creía, critica a las instituciones de los medios propios de las formas de perspectiva que sirven los grupos sociales dominantes. La investigación crítica favorece los métodos inductivos interperspective y de investigación. [13] Estudio de las elecciones presidenciales de 1940 Lazarsfeld fue publicada como la elección del pueblo (1944). Durante la investigación reveló información acerca de los procesos psicológicos y sociales que influyen en las decisiones de voto. El estudio también descubrió un proceso de influencia que Lazarsfeld llamado "liderazgo de opinión." Llegó a la conclusión de que existe un flujo de múltiples etapas de la información de los medios de comunicación a las personas que sirven como líderes de opinión que luego se transmiten al público en general. Llamó a este proceso de comunicación el "flujo de dos pasos de la comunicación." [14]

Elihu Katz

Katz fue profesor en la Escuela de Comunicación de la Universidad de Pennsylvania cuando colaboró ​​con Lazarsfeld en 1955. Su investigación tuvo como objetivo observar el flujo de influencia en las intersecciones de la masa y la comunicación interpersonal y dio lugar al libro "Influencia Personal". Katz a cabo investigaciones de Lazarfeld en un estudio de la circulación de la información, que es la base de la "Influencia Personal". Katz y Lazarsfeld llegaron a la conclusión de que: "... la imagen tradicional del proceso de persuasión de masas debe dejar espacio para" gente "como factores que intervienen entre los estímulos de los medios de comunicación y resultantes dictámenes, decisiones y acciones." [2]

Los trabajos publicados sobre la teoría

Elección Popular

La elección presidencial de 1940 vio el presidente Franklin Roosevelt buscar un tercer mandato sin precedentes en la oficina. Financiado por becas de la Fundación Rockefeller, la revista Life, y el encuestador Elmo Roper, Oficina de Investigación de radio de Colombia llevó a cabo un estudio de la votación. Se basó en un estudio de panel de 2.400 votantes en el Condado de Erie, Ohio. Paul Lazarsfeld, Bernard Berelson y Hazel Gaudet supervisados ​​15 entrevistadores, que desde mayo a octubre los entrevistados seleccionados estratégicamente 2.400 miembros de la comunidad en varias ocasiones diferentes con el fin de documentar su proceso de toma de decisiones durante la campaña. Se centraron en los factores que podrían influir en sus decisiones ya que la campaña avanzaba. Elección Popular, un libro basado en este estudio presentó la teoría del "flujo de dos pasos de las comunicaciones", que más tarde llegó a ser asociado con el llamado "modelo de efectos limitados" de los medios de comunicación: la idea de que las ideas fluyen a menudo de radio y de impresiones en "líderes de opinión" locales que, a su vez, los desplazan a las personas con conocimientos políticos más limitada, o "seguidores de opinión." Los resultados de la investigación llevaron a la conclusión de que a veces la comunicación persona a persona puede ser más eficaz que los medios de comunicación tradicionales, como periódicos, televisión, radio, etc. Esta idea se desarrolló aún más en el libro influencia personal. [15]

Influencia personal

En 1944, Paul Lazarsfeld en contacto McFadden Publicaciones en lo que respecta a su primer libro, la elección del pueblo. Los dos colaboraron formar una asociación mutuamente beneficiosa en el que Macfadden vio una manera de obtener ganancias financieras de la publicidad para la población femenina y Lazarsfeld vio una forma de obtener más información acerca de la influencia social. De esto surgió del estudio realizado por la Oficina de Investigación Social Aplicada en el que 800 mujeres residentes en Decatur, Illinois, donde entrevistó a través de entrevistas de panel para descubrir qué y quién influenciada principalmente su toma de decisiones. Lazarsfeld trabajó con Robert Merton y por lo tanto contrató a C. Wright Mills para dirigir el estudio. Otra parte del equipo de investigación, Thelma Anderson Ehrlich, las mujeres locales Decatur capacitado para administrar encuestas para las mujeres seleccionadas de la ciudad. Por el estudio de 1955. Decatur se publicó como parte de Elihu Katz y Lazarsfeld del libro influencia personal. El libro llegó a la conclusión de que, en última instancia, la interacción cara a cara es más influyente que la influencia de los medios tradicionales y por lo tanto confirmó el modelo de flujo de dos pasos de la comunicación. [16]

Críticas

El flujo original de dos pasos hipótesis de que las ideas fluyen de los medios de comunicación a los líderes de opinión y las secciones a continuación, a menos activos de la población ha sido criticado y negada por los estudios consiguientes innumerables. Los resultados de Deutschmann y Danielson afirman, "instamos a que la hipótesis de flujo de dos fases Katz-Lazarsfeld, como una descripción del proceso de información inicial, se aplicará a la comunicación de masas con precaución". [17] Se encuentran evidencia sustancial de que la masa inicial los medios de información fluye directamente a la gente en general, no se transmite por los líderes de opinión.

Además, la hipótesis de dos pasos no describe adecuadamente el flujo de aprendizaje. Everett Rogers "difusión de innovaciones" cita un estudio en el que dos tercios de los encuestados acreditada la advertencia respecto de los medios de comunicación en lugar de la comunicación cara a cara [esta afirmación necesita una citación, idealmente, desde la 5ª edición - de lo contrario es inconfirmado]. Del mismo modo, los críticos argumentan que la mayor parte de los hallazgos de Lazarsfeld se refieren a factores de aprendizaje involucrados con los hábitos de los medios de comunicación en general, más que el aprendizaje de la información en particular. Ambos resultados sugieren una mayor prevalencia de un flujo de un solo paso de comunicación.

Sin embargo, la hipótesis de dos pasos de Lazarsfeld es una descripción adecuada para comprender la influencia de los medios en la creencia y el comportamiento. Troldahl encuentra que la exposición a los medios de comunicación es un primer paso para introducir el debate, en el que los líderes de opinión punto de iniciar el flujo de segunda etapa. Estos resultados también se dan cuenta papel decisivo líderes de opinión "en la teoría del equilibrio, lo que sugiere que las personas están motivadas para mantener la coherencia entre sus creencias y opiniones actuales. Si una persona se expone a nuevas observaciones que sean incompatibles con las creencias actuales, él o ella se ve inmersa en desequilibrio. Esta persona entonces buscar el consejo de su líder de opinión, que les proporcione conocimientos adicionales para llevarlos de vuelta al equilibrio. Además, esta teoría puede ser válida durante la época en la que los líderes de opinión fueron los únicos que tienen fácil acceso a los contenidos de los medios. Hoy en día, hay un flujo libre de información para que cualquier persona pueda tener acceso a los contenidos de los medios sin depender sustancialmente de los líderes de opinión.

La investigación empírica que analiza enormes bases de datos de los flujos de comunicación en los medios de comunicación social encuentra panorama de los medios digitales de hoy facilitar de forma simultánea en una sola etapa, de dos etapas y modelos de flujo de múltiples etapas más complejas de comunicación. [9] Por ejemplo, en las redes de Twitter no es contradicción que promedian los usuarios de Twitter mencionan principalmente la intermediación de los líderes de opinión en sus tweets (flujo de dos pasos), mientras que al mismo tiempo las salidas tradicionales de medios de comunicación reciben el 80-90% de su menciona directamente a través de un flujo directo de una sola etapa a partir de los mismos usuarios. [9] Esto muestra que el modelo de dos etapas no parece estar muerta, ni obsoleto, sino simplemente una de varias maneras fluye la comunicación en las redes modernas.

Referencias


  1. Baran, Stanley. "Theories of Mass Communication". Introduction to Mass Communication. McGraw Hill. Retrieved July 2011.
  2. Katz & Lazarsfeld (1955). "Personal Influence". New York: Free Press.
  3. Staubhaar, LaRose, Davenport (2009). Media Now. Belmont, Ca: Wadsworth Cengage Learning. pp. 415–416. ISBN 978-0-495-56595-6.
  4. Paul Felix Lazarsfeld, Bernard Berelson, Hazel Gaudet, The people's choice: how the voter makes up his mind in a presidential campaign, Columbia University Press, 1944, p. 151ff
  5. Elihu Katz & Paul Felix Lazarsfeld (1955). Personal Influence: the Part Played by People in the Flow of Mass Communications. pp. 309ff. ISBN 1-4128-0507-4.
  6. Elihu Katz (Spring 1957). "The Two-Step Flow of Communication: An Up-To-Date Report on a Hypothesis". The Public Opinion Quarterly 21 (1): 61–78.
  7. Lowery & DeFleur, "Milestones In Mass Communication Research" Personal influence: Two-Step Flow of Communication, Longman Inc., 1983, p.179
  8. "Two Step Flow Theory." Opleidingswebsite Communicatiewetenschap (CW) En Communication Studies (CS). Unitveristy of Twente, 9 Sept. 2004. Web. 11 Apr. 2010. <http://www.cw.utwente.nl/theorieenoverzicht/Levels%20of%20theories/macro/Two-Step%20Flow%20Theory.doc/>.
  9. Hilbert, M., Vasquez, J., Halpern, D., Valenzuela, S., & Arriagada, E. (2016). One Step, Two Step, Network Step? Complementary Perspectives on Communication Flows in Twittered Citizen Protests. Social Science Computer Review. Freely available at http://escholarship.org/uc/item/0nn4p7mv
  10. Bennett, W. L., & Manheim, J. B. (2006). The One-Step Flow of Communication. The ANNALS of the American Academy of Political and Social Science, 608(1), 213–232.http://doi.org/10.1177/0002716206292266
  11. Choi, S. (2014). The Two-Step Flow of Communication in Twitter-Based Public Forums. Social Science Computer Review, 0894439314556599
  12. Stansberry, K. (2012). One-step, two-step, or multi-step flow: the role of influencers in information processing and dissemination in online, interest-based publics. PhD Dissertation presented to the School of Journalism and Communication, University of Oregon.
  13. Staubhaar, LaRose, Davenport (2009). Media Now. Belmont, Ca: Wadsworth Cengage Learning. p. 404. ISBN 978-0-495-56595-6.
  14. "Paul F. Lazarsfeld Biography". Book Rags Inc. Retrieved July 2011.
  15. "THE ERIE COUNTY STUDY (The People’s Choice)". Media Research of the 1940s.
  16. "THE DECATUR COUNTY STUDY (Personal Influence)". Media Research of the 1940s.
  17. Troldahl, Verling C. "A Field Test of a Modified "Two-Step Flow of Communication" Model." Public Opinion Quarterly 30.4 (2001): 609-23. Academic Search Premier. Web. 11 Apr. 2010. <http://web.ebscohost.com>.

domingo, 26 de junio de 2016

Brexit afectará las redes de investigación del Reino Unido

La ciencia de las redes revela el impacto del Brexit en el ecosistema de investigación del Reino Unido


Brexit es un hecho ahora y se espera que tenga un impacto significativo en las economías del Reino Unido y sus socios comerciales claves. Una de las áreas de impacto se refiere a los fondos de investigación de la Unión Europea en la forma de su Programa Marco Horizon 2020 para la Investigación y la Innovación. Un número importante de universidades, institutos de conocimiento y empresas del Reino Unido actualmente participan en este programa. Exactamente que organizaciones y proyectos están potencialmente afectados, y cómo están conectados? La ciencia de las redes ofrece una visión inicial.
Escrito por André Vermeij, Kenedict Innovation Analytic



Un extracto de la red completa que muestra las universidades e instituciones con el mayor número de proyectos asociados

Los datos sobre todos los proyectos y organizaciones de Horizon 2020 está fácilmente disponible como Open Data de CORDIS, el repositorio público de la Comisión Europea para obtener información sobre los proyectos de investigación financiados por la UE. Los principios de la ciencia de las redes nos permiten convertir estos datos en mapas de la actividad de las organizaciones del Reino Unido. Las redes se componen de nodos (entidades) y los bordes (las conexiones entre entidades) y permiten un análisis profundo y visualización de las estructuras subyacentes de la investigación y la colaboración.
A continuación, vamos a las organizaciones que se basan en el Reino Unido a todos los proyectos de Horizonte 2020 que actualmente participan. En la sala de red se conecta, este es un ejemplo de un modo de dos o red bipartita, en el que dos tipos de nodos son distintas conectan cada vez que co-aparecen en el conjunto de datos subyacente. Nos centraremos en el mayor grupo interconectado de la actividad aquí - se omiten los proyectos y organizaciones desconectados.

La exploración de red en sí mismo: Visualización interactiva

La visualización interactivo le permite explorar la red de proyectos y organizaciones de usted mismo. Puede buscar temas y organizaciones que utilizan el cuadro de búsqueda en la parte superior izquierda. Al hacer clic en un nodo muestra sus propiedades a la derecha y le permite ver sus conexiones directas también. los nodos del proyecto incluyen un enlace a la página del proyecto en el sitio web de CORDIS para leer sobre toda la información asociada a ese proyecto.
Los nodos están dimensionados en función de su número total de conexiones, lo que nos permite ver rápidamente que las universidades y las organizaciones son potencialmente los más afectados. colores de nodos se asignan en base a un algoritmo de detección de comunidades, que agrupa a los nodos con conexiones sólidas entre ellos. Esto nos ayuda a obtener una vista visual en los grupos de organizaciones y proyectos que rodean los actores clave. Una versión de pantalla completa de lo visual se puede encontrar aquí.


Detalles



Un primer vistazo a lo visual muestra inmediatamente que la Universidad de Cambridge, la Universidad de Oxford y la University College de Londres son potencialmente los más afectados en términos del número de proyectos de Horizonte 2020 que actualmente participan en. Respectivamente, estas universidades participan en los proyectos 183, 167 y 165. Un buen número de proyectos se caracterizan por la participación de múltiples universidades y organizaciones del Reino Unido. Por ejemplo, Oxford y Cambridge ambos participan en el proyecto 'Bridging the gap: from Individual Behaviour to the Socio-tEchnical MaN'.



El núcleo de la red se compone de una amplia variedad de proyectos y organizaciones que están conectados a varias otras partes de la red. Un buen ejemplo es el proyecto ‘Graphene-based disruptive technologies': muchas de las principales universidades del Reino Unido participan aquí, con la parte de ser proyecto de programa Graphene Flagship de 1 mil millones € de la UE.



La exploración de las estructuras exteriores de la red proporciona una visión interesante sobre los proyectos y organizaciones minoritarias conectado. Te encontrarás con más organizaciones de negocios aquí, incluyendo Rolls Royce y TWI en la parte inferior derecha de la red. Esto demuestra que las organizaciones con fines de lucro son también potencialmente afectados por el Brexit desde una perspectiva de ecosistema investigación, aunque menos que las universidades o institutos de investigación.
Siéntase libre de explorar la red y comparta cualquier idea adicionales usando los comentarios!

viernes, 24 de junio de 2016

Los amigos de Facebook no son amigos después de todo

¡Sorpresa! Sus amigos de Facebook no son sus amigos en la vida real
Usted tiene un amigo en mí (y otras tres personas)
Por Jason Lederman - Popular Science
 


Un nuevo estudio de la Universidad de Oxford confirma por qué tenemos que especificar alguien es un "amigo Facebook" en lugar de un amigo.
El profesor Robin Dunbar observó la relación entre amigos de Facebook de las personas y los verdaderos amigos, y encontró que sólo 14 de los media de 150 amigos de Facebook que un usuario tiene que expresar ninguna simpatía por el usuario en la vida real; sólo cinco amigos de Facebook podrían ser considerados "amigos cercanos".
El estudio también encontró que la edad juega un papel significativo en el número de amigos de Facebook que los participantes tenían, lo que refleja las diferencias en cómo los adolescentes y los adultos utilizan los medios sociales. El grupo de 18 a 24 años de edad de los participantes tenían un promedio de 282 "amigos" más alto que el promedio general de 150 "amigos". Dunbar lo atribuye al hecho de que "los niños son menos exigentes que los adultos en la definición de las amistades, "y que las redes sociales", típicamente estimulan promiscua 'friending' de las personas que a menudo tienen vínculos muy tenues con el ego (X es un amigo [o amigo-de-amigo-de-un-amigo] de y, por lo que le gustaría hacer amistad ¿ellos?)."
A pesar de que los usuarios con más amigos que lo normal pueden pensar que tienen más amigos cercanos, Dunbar encontró la tendencia se mantiene en realidad para ellos, así:
Los encuestados que tenían inusualmente grandes redes no aumentaron el número de amistades cercanas que tenían, sino más bien que agregaron a más conocidos poco definidos en su círculo de amistad, simplemente porque la mayoría de los sitios de medios sociales no permiten diferenciar entre estas capas.
Según Dunbar, las amistades tienen "una tasa de atenuación natural en ausencia de contacto, y los medios sociales pueden funcionar bien para frenar la velocidad de desintegración." Pero no se basan exclusivamente en Facebook para mantener su amistad viva - Dunbar recomienda cara reunión cara a cara para "reforzar" la amistad.
Dado que las personas generalmente encuentran las interacciones a través de medios digitales (incluyendo el teléfono, así como la mensajería instantánea y otros medios de comunicación social basado en texto) menos satisfactorios que las interacciones cara a cara, puede ser que las reuniones cara a cara sean necesarios de vez en cuando para evitar que las amistades, en particular, se decaigan a través de las capas de red y, finalmente, se deslice sobre el enlace ... en la categoría de conocidos.

El trabajo de Dunbar se puede encontrar en:

Do online social media cut through the constraints that limit the size of offline social networks?
R. I. M. Dunbar
DOI: 10.1098/rsos.150292

martes, 21 de junio de 2016

30 paquetes de software de ARS

Top 30 de herramientas de análisis y visualización de redes sociales 

Se revisan las principales herramientas y paquetes de análisis de redes sociales y visualización, que tienen amplias aplicaciones, incluyendo la biología, las finanzas, la sociología, la teoría de redes, y muchos otros dominios.
Por Devendra Desale, KDnuggets.- Data Mining, Analytics, Big Data, and Data Science



Aquí está una lista de la parte superior de análisis de red social y herramientas de visualización que encontramos - véase también en la página Social Network Analysis, Link Analysis, and Visualization de KDnuggets. Aquí vamos...


Centrifuge ofrece a los analistas e investigadores un conjunto integrado de capacidades que pueden ayudar a entender rápidamente y espigan penetración de nuevas fuentes de datos, visualizar descubrimientos mediante la interacción con los datos, colaborar para sacar conclusiones.



Commetrix es un framework de software para la visualización y análisis de red dinámica que soporta moderadores comunitarios, miembros y redes de investigadores. Commetrix es una herramienta de análisis exploratorio de datos de redes dinámicas. Sus conectores pueden leer cómodamente todas las fuentes de datos de la red accesibles, como las redes de coautoría o de procesos de negocio. Sin embargo, la atención se centra en el análisis de la evolución de los patrones de comunicación electrónica, incluyendo el correo electrónico, discusiones, voz sobre IP y mensajería instantánea.

Cuttlefish es una aplicación de banco de trabajo (workbench) de red que visualiza las redes con algunos de los algoritmos de diseño más conocidos. Permite visualizaciones detalladas de los datos de la red, la manipulación interactiva del diseño, edición gráfica y visualización de procesos, así como diferentes métodos de entrada como de salida de TeX usando TikZ y PSTricks. Se puede descargar como archivo jar y se puede utilizar con Gephi también.

Cytoscape es una plataforma de software de código abierto para la visualización de las redes de interacción molecular y vías biológicas y la integración de estas redes con anotaciones, perfiles de expresión génica y otro datos de estado. Si bien Cytoscape fue diseñado originalmente para la investigación biológica, ya que es una plataforma general para el análisis de redes complejas y visualización. distribución del núcleo Cytoscape proporciona un conjunto básico de características para la integración de datos, análisis y visualización. Las características adicionales están disponibles como aplicaciones (anteriormente llamada plugins). Aplicaciones están disponibles para la red y análisis de perfiles moleculares, nuevos diseños, formatos de archivos adicionales, scripting, y la conexión con bases de datos.

EgoNet es un programa para la recogida y análisis de datos de la red egocéntricos. Le ayuda a crear el cuestionario, recopilar datos y proporcionar medidas generales de la red global. Además, las matrices de datos se pueden utilizar para un análisis más extenso por otro software. Una vez que se haya completado la entrevista, la red puede ser visualizado inmediatamente, permitiendo que el entrevistador hacer más preguntas sobre la red. Otras utilidades incluyen la combinación de redes personales en una sola red entera.

Gephi es una visualización interactiva y la plataforma de exploración para todo tipo de redes y sistemas complejos, dinámicos y grafos jerárquicos. Se ejecuta en Windows, Linux y Mac OS X. Gephi es de código abierto y libre. Gephi es una herramienta para las personas que tienen que explorar y comprender los grafos. Como Photoshop, pero para los datos, el usuario interactúa con la representación, manipular las estructuras, formas y colores para revelar propiedades ocultas.



Graph-tool es un módulo de Python eficiente para la manipulación y el análisis estadístico de los grafos (alias para redes). Al contrario de la mayoría de los otros módulos de Python con una funcionalidad similar, las estructuras de datos y algoritmos básicos son implementados en C ++, haciendo uso extensivo de la plantilla de meta-programación, basada en gran medida en la Boost Graph Library. Graph-tool tiene sus propios algoritmos de diseño y dibujo, rutinas interactivas versátiles basados ​​en Cairo y GTK +, pero también puede funcionar como una interfaz muy cómoda a la excelente paquete graphviz.

GraphChi es un spin-off del proyecto GraphLab (ahora renombrado a Dato) de la Universidad Carnegie Mellon. Es para llevar el cómputo de grafos de red a gran escala, tales como el análisis de redes sociales, disponible para cualquier persona con un ordenador portátil moderno. Se le ahorra la molestia y los costos de trabajar con un racimo o distribuidos los servicios en la nube. Programas para GraphChi se escriben en el modelo centrado en el vértice, propuesto por GraphLab y Pregel de Google.

Graphviz es un software de visualización gráfica de código abierto. La visualización gráfica es una forma de representar información estructural como diagramas de grafos abstractos y redes. Los programas de diseño Graphviz toman descripciones de grafos en un lenguaje de texto simple, y hacer diagramas en formatos útiles, tales como imágenes y SVG para páginas web; PDF o PostScript para su inclusión en otros documentos; o visualizar en un navegador gráfico interactivo. Graphviz tiene muchas características útiles para los diagramas de hormigón, como las opciones de colores, fuentes, diseños de nodos de tabla, estilos de línea, hipervínculos y formas personalizadas.

InFlow realiza análisis de red y visualización de la red en un solo producto integrado. Es una de las primeras herramientas en ARS que ha sobrevivido debido a su facilidad de uso y una interfaz interactiva. Es un poco más caro, pero viene con el entrenamiento y el apoyo de Valdis. Es necesario ponerse en contacto con Valdis (puede hacerlo a través de este sitio web) para la fijación de precios y características actuales.



JUNG(Java Universal Network/Graph Framework) es una biblioteca de software que proporciona un lenguaje común y extensible para el modelado, análisis y visualización de datos que se puede representar en forma de grafo o de red. La arquitectura JUNG está diseñado para soportar una variedad de representaciones de entidades y sus relaciones, tales como grafos dirigidos y no dirigidos, grafos multimodales, grafos con enlaces paralelos, y hypergrafos. Proporciona un mecanismo para describir grafos, las entidades y las relaciones con los metadatos.

Keynetiq es una plataforma innovadora para el análisis de red de la organización. Está diseñado para mapear, visualizar y analizar las redes de personas y las relaciones entre ellos, que revela cómo las organizaciones operan realmente en el negocio del día a día. Se proporciona una gama completa de servicios que van desde el análisis de sus objetivos y el diseño de un estudio de la ONA, la implementación de la herramienta Keynetiq, la coordinación de la recopilación de datos y administración de la plataforma, hasta un análisis completo de la red de la organización y una informe detallado completo con un plan de acción.

MeerKat dispone de instalaciones para la minería automatizada comunidad, diversos algoritmos de diseño de visualizaciones de votos, y el análisis de eventos plazo para redes dinámicas que se han observado en varios puntos en el tiempo. Meerkat establece cuidadosamente la red fuera de la pantalla para minimizar la oclusión y se destacan las comunidades. También proporciona información acerca de los nodos más influyentes / centrales dentro de cada comunidad.

Netlytic es un analizador de texto y redes sociales basado en la nube que se pueden resumir de forma automática grandes volúmenes de texto y descubrir las redes sociales de las conversaciones en línea en sitios de medios sociales como Twitter, YouTube, blogs, foros en línea y chats. la suscripción de varios niveles incluyendo la versión gratuita.

NetMiner es una aplicación de software para el análisis de exploración y visualización de datos de gran tamaño de la red según el SCN. Se ha incrustar motor de scripts basado en Python interna que equipado con el generador automático de secuencias de comandos. NetMiner 4 Licencia para los cursos se proporciona a los estudiantes y profesores.

Network Workbench es un software para Análisis de Redes, Modelado y Visualización Toolkit a gran escala para Ciencias Sociales, Biomédicas e Investigación Física. El entorno de los recursos informáticos de código-imaginado datos proporcionará una ventanilla portal en línea para los investigadores, educadores y profesionales interesados ​​en el estudio de las ciencias biomédicas, sociales y de comportamiento, la física y otras redes.

NetworKit es un creciente conjunto de herramientas de código abierto para el análisis de redes de alto rendimiento. Su objetivo es proporcionar herramientas para el análisis de redes de gran tamaño en el rango de tamaño de entre miles de miles de millones de enlaces. Para este propósito, se implementa algoritmos de grafos eficaces, muchos de ellos paralelo a utilizar arquitecturas multinúcleo. Estos están destinados para calcular las medidas estándar de análisis de redes, tales como secuencias grado, coeficientes de la agrupación y la centralidad. A este respecto, NetworKit es comparable a paquetes como NetworkX, aunque con un enfoque en el paralelismo y la escalabilidad.

NetworkX es un paquete de software de lenguaje Python para la creación, manipulación, y el estudio de la estructura, la dinámica y las funciones de las redes complejas. Con NetworkX se puede cargar y redes de tiendas en formatos de datos estándar y no estándar, generar muchos tipos de redes aleatorias y clásicos, analizar la estructura de la red, construir modelos de red, el diseño de nuevos algoritmos de redes, redes de dibujar. Es utilizado por los matemáticos, físicos, biólogos, informáticos, científicos y sociales.

NodeXL es una plantilla libre, de código abierto para Microsoft® Excel® que hace que sea fácil explorar los grafos de redes. Con NodeXL, se puede introducir una lista de enlaces de la red en una hoja de cálculo, haga clic en un botón y ver su grafo, todo ello en el entorno familiar de la ventana de Excel. Grafos flexibles de importación y exportación de importación y exportación en GraphML, PAJEK Ucinet, y los formatos de matriz. Las conexiones directas a las redes sociales Redes Sociales importar directamente desde Twitter, YouTube, Flickr y correo electrónico, o utilizar uno de varios plug-ins disponibles para obtener las redes de Facebook, Cambio, Wikis y los enlaces WWW.

Pajek es un programa para Windows, la principal motivación para el desarrollo de Pajek fue la observación de que existen varias fuentes de grandes redes que ya están en forma legible por máquina. Pajek debe proporcionar herramientas para el análisis y visualización de este tipo de redes: redes de colaboración, molécula orgánica en la química, las redes de interacción receptor de la proteína, genealogías, las redes de Internet, redes de citación, de difusión (SIDA, noticias, innovaciones) redes, la minería de datos (2-mode redes), etc. se utiliza ampliamente en la investigación académica.

Polinode es una herramienta flexible que ayuda a reducir la complejidad a través. En su núcleo está la capacidad de asignar, visualizar y analizar los datos de la red. Dirigida principalmente a las organizaciones y consultores, aplicaciones van desde la identificación de los agentes de cambio y la búsqueda de enlaces críticos a través de la promoción de la diversidad y la mejora de los diseños de los lugares de trabajo.

R es una herramienta de análisis de uso general, pero varias bibliotecas están disponibles para el análisis de redes sociales. Estos incluyen degreenet, RSeina, PAFit, igraph, red SNA, tneto, ERGM, Bergm, hergm, latentnet y networksis. Cada uno proporciona una funcionalidad especializada y para las personas familiarizadas con R representan un amplio conjunto de recursos.

SocNetV (Social Networks Visualizer) es una herramienta fácil de usar multi-plataforma para el análisis y la visualización de las redes sociales. Se permite construir redes (grafos matemáticos) en un lienzo virtual, o redes de carga de varios formatos (GraphML, GraphViz, adyacencia, Pajek, UCINET, etc). Además, SocNetV permite modificar las redes sociales, analizar sus propiedades sociales y matemáticas y aplicar diseños de visualización.



Socioviz ies una plataforma de análisis de redes sociales impulsado por métricas de análisis de redes sociales. Permite al usuario consultar las conversaciones de Twitter y encontrar Identificar factores de influencia, opiniones y contenidos. grafos de redes sociales (mención de usuario y la copresencia hashtag) se visualizan y se pueden exportar en formato Gephi (gexf) para su posterior análisis.

Sentinel Visualizer es utilizado por Advanced Link análisis, visualización de datos, Mapeo Geoespacial, y SNA. Su plataforma de visualización de datos con base de datos le permite ver rápidamente enlaces multi-nivel entre las entidades y el modelo de diferentes tipos de relaciones. funciones de dibujo y volver a dibujar avanzada generar vistas para poner de relieve las entidades más importantes optimizados.

Statnet es un conjunto de paquetes de software en I para el análisis de red de la modelización estadística de las redes. El marco analítico se basa en la familia Modelos de Grafos aleatorios exponenciales (ERGM). Proporciona un marco integral para el modelado de red basado en ERGM, incluyendo herramientas para la estimación del modelo, la evaluación del modelo, la simulación de red basado en el modelo y visualización de la red. Esta amplia funcionalidad es impulsado por un algoritmo de cadena central de Markov Monte Carlo (MCMC).

SVAT (Smart Visual Analytics Tool) es para la visualización de datos, investigación de fraude, y más. Proporciona, visualización rentable fácil de usar de enlaces y fluye entre los sujetos. Una visión general cronológica del conjunto de datos visualizado es crucial en muchos casos. TSVA es compatible con dos puntos de vista de línea de tiempo diferentes, con una gran cantidad de opciones para elegir. Se puede extraer datos de fuentes estructurada o no, y los crujidos para revelar patrones ocultos.



Tulip es un marco de visualización de información dedicado al análisis y visualización de datos relacionales. Su objetivo es proporcionar al desarrollador con una biblioteca completa, el apoyo al diseño de la visualización de información interactivo. Escrito en C ++ el marco permite el desarrollo de algoritmos, codificaciones visuales, técnicas de interacción, modelos de datos y visualizaciones de dominio específico. Uno de los objetivo de tulipán es facilitar la reutilización de componentes y permite que los desarrolladores centrarse en la programación de su aplicación. Esta línea de desarrollo hace que el marco eficiente para la creación de prototipos de investigación, así como el desarrollo de aplicaciones de usuario final.

Visone es un software para la creación visual, la transformación, exploración, análisis y representación de datos de la red, desarrollado de manera conjunta en la Universidad de Konstanz y el Instituto de Tecnología de Karlsruhe desde 2001. El objetivo principal del software visone es capacitar a los investigadores en el ciencias sociales para analizar y visualizar los datos de la red de una manera integrada. Las posibles aplicaciones van desde la sociometría de bibliometría y análisis web.

XANALYS se especializan en proporcionar capacidades de software de gran alcance. A partir de la evaluación de amenazas, manejo de casos importante de Investigación y el delito y fraude de análisis anticipadas. Ayuda a gestionar grandes investigaciones de delitos a varias jurisdicciones, evaluar y analizar las transacciones financieras sospechosas, la captura y actuar sobre los informes de inteligencia, y divulgar las pruebas en un formato de corte listo para asegurar resultados exitosos.

domingo, 19 de junio de 2016

Redes de normas y temas en Wikipedia

La evolución de la red de normas de Wikipedia
Bradi Heaberlin y Simon DeDeo
Future Internet


Resumen: Las normas sociales han sido tradicionalmente difíciles de cuantificar. En cualquier sociedad en particular, su cantidad y las interdependencias complejas a menudo limitan un análisis a nivel de sistema. Una excepción es la de la red de normas que sustentan la comunidad de Wikipedia en línea. Estudiamos la evolución de quince años de esta red con el conjunto interconectado de páginas que se establecen, describiendo e interpretando las normas de la comunidad. A pesar de la reputación de Wikipedia de gobernabilidad ad hoc, nos encontramos con que su evolución normativa es muy conservadora. Los primeros usuarios crean normas que tanto dominan la red y persisten en el tiempo. Estas normas básicas rigen tanto el contenido como las interacciones interpersonales utilizando principios abstractos como la neutralidad, verificabilidad, y asumen de buena fe. A medida que la red crece, vecindarios de normas se desacoplan topológicamente el uno del otro, mientras que el aumento en la coherencia semántica. Tomados en conjunto, estos resultados sugieren que la evolución de la red de Wikipedia norma es similar a los sistemas burocráticos que son anteriores a la era de la información.
Palabras clave: normas sociales; redes de normas; Wikipedia; oligarquía; burocracia; gobernancia; conocimiento común


1. Introducción

Las ideas comunes de la sociedad sobre cómo se "debe" gobernar comportan características esenciales de la vida económica y política [1,2,3,4,5,6]. Fuera de ambientes idealizados de teoría de juegos, por ejemplo, los incentivos económicos se complementan con las normas sobre la honestidad y un salario más alto es posible cuando los trabajadores creen que no deberían engañar a su empleador [7]. Y, si bien la estructura racional de las normas y leyes es una parte importante de las acciones de coordinación y deseos [8], las personas a determinar la legitimidad de estas soluciones basadas en las creencias acerca de la imparcialidad y la autoridad. Una fuerza policial sin legitimidad no puede hacer cumplir la ley [9,10].
Las normas también están en desarrollo continuo. La norma moderna contra la violencia física, por ejemplo, tiene raíces inesperados y sigue evolucionando [11,12,13]. Sin embargo, entendemos mucho menos acerca de la historia y el desarrollo de las normas que sobre la economía o la ley [14]. A menudo carecen de los datos que nos permita hacer el seguimiento de la coevolución de las ideas complejas, interrelacionadas e interpretativos, tales como la honestidad, la justicia, y la autoridad, la forma en que podemos realizar un seguimiento de los precios y los flujos monetarios o la creación y el cumplimiento de los estatutos.
Los sistemas en línea, tales como Wikipedia, proporcionan nuevas oportunidades para estudiar el desarrollo de normas en el tiempo. Junto con los repositorios de información y de códigos en el centro de la economía mundial moderna, tales como GNU / Linux, Wikipedia es un ejemplo canónico de un conocimiento común [15,16,17,18]. conocimientos comunes se basan en las normas, en lugar de los mercados o leyes, para la mayor parte de su gobierno [19,20]. En Wikipedia, editores colaboran para escribir artículos enciclopédicos en un entorno de código abierto gestionado por la comunidad [21,22], y que se basan en las normas sociales para estandarizar y gobiernan sus decisiones de edición [23]. los registros del servidor minuto a minuto de Wikipedia cubren más de quince años de creación de normas y la evolución de una población de editores que se contaban por decenas de miles. Las normas son importantes en la Wikipedia en formas que hacen que sea imposible para que los participantes pasan por alto: es el sistema de normas, en lugar de leyes justas, que dicta lo que el contenido está o no está incluido, que participa, y lo que hacen.
Paralelamente a los hallazgos en el estudio de la evolución regla en grandes instituciones académicas [24], esperamos que las normas de Wikipedia que juegan un papel en la preservación de la memoria institucional, para ser una fuente de estabilidad institucional y el cambio, y que tienen una relación compleja con el circunstancias que llevaron a su creación. páginas norma desempeñan un papel clave en la coordinación de comportamiento entre los editores de la Enciclopedia [25]. Editores citan habitualmente las normas sobre las páginas de discusión de artículos en un intento de coordinar [26], crear consenso y resolver conflictos [23,27].
Este estudio se centra en un subespacio de la enciclopedia dedicada a la información y discusión acerca de las normas de la propia enciclopedia. Las comunidades asociadas a cada uno de 291 idiomas y ediciones tienen una gran independencia para definir y modificar las normas que utilizan de Wikipedia; o sea, se puede seguir una trayectoria evolutiva diferente. Aquí, nos centramos únicamente en las normas de la Wikipedia en idioma Inglés. Se estudia la evolución de estas normas utilizando un subconjunto de las páginas enlazadas estrechamente que establecen, describir e interpretar ellos. Estas páginas, junto con las relaciones entre ellos, nos permiten cuantificar cómo los editores describen las expectativas de comportamiento y, en consecuencia, la forma de crear y volver a interpretar las normas de su comunidad.
Nos centramos en los enlaces entre páginas norma. la formación en línea de enlace se produce por una variedad de razones [28], incluyendo la asociación estratégica por la persona que hace la cita [29]. En el caso de Wikipedia, enlaces entre páginas en la enciclopedia "mainspace" codifican información acerca de las relaciones semánticas [30,31] y la importancia relativa de las páginas [32,33]. La extensión de estos análisis a las páginas de la enciclopedia norma nos permite ver cómo se describen las normas, justificados y explicados por referencia a otras normas. Nuestro uso de esta red es paralela a los estudios de citaciones en los sistemas jurídicos; los investigadores utilizan citas legales para realizar un seguimiento a través de la influencia de precedencia [34] y la legitimación [35], así como el prestigio de la citada [35,36]. El paralelo a las citaciones legales no es exacta: las páginas de la red norma de Wikipedia no (por lo general), creado en respuesta a un evento en particular, como en un caso judicial, sino más bien en respuesta a una necesidad percibida son; páginas pueden ser creados por cualquier usuario, en lugar de un juez o tribunal en particular; y las páginas pueden ser editadas de forma retrospectiva (que conduce, por ejemplo, a la posibilidad de ciclos de gráfico cuando se introducen nuevos enlaces).
Esta perspectiva de la red nos permite ir más allá del seguimiento de un solo comportamiento a través del tiempo (un enfoque común en los estudios de la evolución cultural [37]) para examinar la evolución de las relaciones entre cientos, e incluso miles, de ideas distintas. Utilizamos estos datos para formular tres preguntas críticas. En un sistema en el que constantemente se están discutiendo y crean normas, cómo y cuándo algunas normas llegan a dominar sobre los demás? ¿Qué tipo de comportamiento es lo que gobiernan? Además, ¿cómo esas normas básicas evolucionan con el tiempo?
Las respuestas son sorprendentes. Mientras que algunas cuentas de Wikipedia subrayan su flexibilidad y la naturaleza ad hoc de su gobierno [38,39,40], nos encontramos con que la evolución normativa de la Wikipedia es muy conservadora. Normas que dominan el sistema en los últimos años de la Wikipedia se crearon temprano, cuando la población era mucho menor. Estas normas básicas dicen los editores de la forma de escribir y artículos de formato; también describen cómo colaborar con los demás cuando se enfrentan a los desacuerdos e incluso acaloradas discusiones. Para ello, las normas básicas de referencia, principios racionalizadas universales, como la neutralidad, verificabilidad, la cortesía, y el consenso. Con el tiempo, los barrios de la red de estas normas se desacoplan topológicamente. Mientras lo hacen, su coherencia semántica interna aumenta, tal como se mide utilizando un modelo tema del texto de la página. normas básicas abstractas de Wikipedia y proceso de desacoplamiento muestran que adopta una estructura "organización institucionalizada" similar a los sistemas burocráticos que son anteriores a la era de la información [41].

2. Métodos

Para recopilar datos sobre la red de normas en la Wikipedia, que SPIDER enlaces dentro del "espacio de nombres" reservado para (entre otras cosas) las políticas, lineamientos, procesos y discusión. Estas páginas pueden ser identificados debido a que llevan el prefijo "Wikipedia:" o "WP:". Los nodos de red son páginas. aristas dirigidas entre páginas se producen cuando una página enlaza a otra a través de al menos un hipervínculo que cumple con nuestros criterios de filtrado; estos enlaces se encuentran analizando el código HTML en bruto de cada página y con exclusión de las plantillas de navegación estándar y listas. Nuestra red es, pues, ambos dirigidos y no ponderado. Comenzamos nuestro rastreo en la (seleccionado arbitrariamente) página norma "Asumir la buena fe". Los detalles del proceso de rastreo, los filtros de hipervínculo y el post-tratamiento de los enlaces entre páginas aparecen en el Apéndice A; tanto los datos sin procesar y procesada nuestra red están libremente disponibles en línea [42].
Editores clasifican las páginas del espacio de nombres mediante la adición de etiquetas; estas etiquetas incluyen, sobre todo, "la política", "guía", y "ensayo", entre otros. Cuando descargamos texto de la página, también registrar estas categorizaciones. Estas categorizaciones describen los niveles de gradated expectativas para la adhesión [43]. En el texto "plantilla" que se incluye de forma automática-, las políticas se describen como "normas ampliamente aceptadas" que "todos los editores debe seguir normalmente" [44], las directrices como "normas de aceptación general" que "los editores deben intentar seguir" y para el que "de vez en cuando excepciones pueden ocurrir "[45], mientras que los ensayos proporcionan" apoyo y opinión ":" [s] ome ensayos representan normas generalizadas ", mientras que" otros sólo representan puntos de vista minoritarios "[46]. Una cuarta categoría es la "propuesta", que describe las posibles políticas y directrices "Sin embargo ... en el desarrollo, en discusión, o en el proceso de reunir consenso para la adopción" [47].
Los análisis previos de entorno de políticas de Wikipedia ha hecho hincapié en los muchos, a menudo se superponen, las funciones que las normas de juego en la enciclopedia, como las políticas que tanto intento de controlar el uso no-autorizado de material con derechos de autor y para establecer la legitimidad a través del uso de la dicción legal y la gramática [ 25]. En el estudio actual, consideramos un sistema de clasificación complementaria que se centra en los tipos de interacciones de las normas regulan, en lugar de sus funciones. Proponemos tres categorías distintas normativas en base a, y la clasificación se extiende, preexistente de las normas que rigen [19] y conocimientos comunes naturales [20].
Las normas pueden intentar regular la creación de contenido (normas "-Contenido de Usuario") e interacciones entre los usuarios (normas "usuario-usuario"). Además, las normas pueden intentar definir una estructura administrativa más formal con distintas funciones, deberes y las expectativas de los administradores (normas "usuario-admin"). Los dos autores de este trabajo clasifican de forma independiente una muestra aleatoria de cuarenta páginas que utilizan este esquema, y ​​se calculó la confiabilidad entre codificadores utilizando kappa de Cohen [48].
Para nuestro análisis semántico, incluimos todos los textos, excepto que se encuentra en cajas especiales cuyo texto es reproducido por la plantilla a través de múltiples páginas. Para construir nuestra distribución a través de uno-gramas, se normaliza todo el texto a minúsculas, combinar palabras con guiones ( "corrección de errores" a "errorcorrection"), y soltar puntuación ( "no" a "don't"). Hacemos ninguna corrección derivada ni de ortografía.
Una variable externa crítico es el número de usuarios activos en la enciclopedia en cualquier punto en el tiempo. Tras [49], definimos un usuario activo como uno que ha hecho cinco o más ediciones dentro de un mes; estas estadísticas se mantienen públicamente en [50].

2.1. Medidas de centralidad y atención 

Las páginas de nuestro corpus se crean para explicar las normas de Wikipedia para editores e influir en sus interacciones con la comunidad de edición de la enciclopedia y el contenido. Los usuarios navegar por el sistema de normas como una estructura de red y por lo tanto se encuentran con algunas de las páginas más que otros.
Lo medimos utilizando centralidad del vector propio (CE), que cuantifica la importancia de una página en función de su accesibilidad global dentro de la red. La CE de una página es la probabilidad de que ocurra a través de una página durante una caminata al azar; equivalente al algoritmo PageRank, que se utiliza en las ciencias del comportamiento para identificar a un consenso sobre el dominio y el poder [51]. Hemos establecido ε, la probabilidad de un salto al azar, a 0,15.
Esperamos que algunas de las páginas que se convierten en ideal para acceder a la red, mientras que otros permanecen en gran parte periférica. Estamos cuantificar la desigualdad del sistema utilizando el coeficiente de Gini (GC). GC varía entre cero (igualdad perfecta, todas las páginas tienen la misma CE) y uno (una página tiene un alto CE; todas las demás páginas tienen el mismo valor bajo). GC es ampliamente utilizado en economía para medir la desigualdad en los ingresos. A continuación, se proporciona una medida global de la medida en que un sistema está dominado por unas pocas normas. Como una cantidad sin dimensiones, que permite a los investigadores comparar este sistema con otras que pueden ser objeto de una investigación posterior.
Debido a que estamos interesados ​​en la forma en que evoluciona la red norma citación y el papel que juegan las normas en el contexto de esta estructura, la CE es una medida ideal de la importancia de una norma. Además de cuantificar importancia estructural, sin embargo, se espera que la CE para correlacionar con, y para predecir, medidas de comportamiento de la atención que recibe una página. Para medir la relación entre centralidad y de comportamiento medidas de atención, hacemos un seguimiento de visitas de página de datos (a partir de los registros del servidor de Wikipedia puestos a disposición por StatsGrok [52], véase el Apéndice B), el número total de ediciones de una página ha recibido, el número de ediciones en diversas su página de discusión asociada, y el número de editores que han editado la página. Llevamos a cabo una regresión lineal multivariable sobre estas medidas de atención, junto con la edad y el tamaño de página de la página (en bytes) como predictores de la página de un CE (véase el Apéndice C).

2.2. Influencia y superposición

Una característica importante de la red de norma es la esfera de influencia: las páginas que se basan en cualquier página en particular para el contexto.
Consideremos, por ejemplo, la página norma "Punto de vista neutral" (PVN), una página instando a los editores para describir los sujetos de artículos sin tomar partido. Una página que enlaza con PVN se refiere a su propio sujeto NPOV de alguna manera. Por ejemplo, entre muchas páginas que enlazan con PVN es "Propaganda", un ensayo instando a los editores que tener cuidado con el uso de medios de propaganda de los gobiernos autoritarios. La página de enlaces a la página de la propaganda de PVN el fin de definir la noción de "peso indebido"; El contenido de PVN por lo tanto se puede decir de influir en la interpretación de lo que se encuentra en la propaganda.
La influencia es distinta de centralidad; medidas de centralidad en la medida en que páginas enlazan a la página en cuestión. Por el contrario, la influencia mide el grado en que el contenido de esa página influencias otras páginas. En nuestro formalismo, un nodo p puede ser entendida para influir en un nodo q cuando Q enlaces a p. Influencia no necesita ser directa, sin embargo: p puede influir q si q enlaces a R y R enlaces a p. Para medir la influencia no local, consideramos paseos aleatorios en la red la dirección invertida.
Más formalmente, la colocación de un caminante aleatorio en el nodo p, permitimos que ella tome n pasos de este punto de partida a lo largo de la red de orientación invertida; escribimos la distribución de probabilidad resultante sobre la posición final como pi, la probabilidad de que el caminante terminando en el nodo i. El pi de distribución define la influencia que tiene en p i.
Para cuantificar la distancia entre dos nodos, se considera además la superposición influencia entre dos nodos arbitrarias p y q. Solapamiento cuantifica el grado en que dos caminantes al azar, a partir de estos nodos, tenderán a visitar las mismas páginas. Si pi y qi son las distribuciones de probabilidad asociados con la influencia de nodo p y q, a continuación, se superponen, se define como:


     (1)

Por varias páginas, podemos calcular la media de superposición de par en par simplemente promediando la superposición entre todos los pares posibles dentro del conjunto.
Alta superposición entre p y q indica que dos páginas influyen en un gran número de nodos comunes. Cuando n tiende a infinito, los caminantes al azar convergen a la distribución estacionaria, y la superposición es uno; A la inversa, cuando n es pequeño, caminantes aleatorios tienen menos tiempo para encontrar uno al otro. Tomamos n igual a cinco, más grande que el camino más corto promedio (aproximadamente tres, en nuestra red), de manera que los nodos son potencialmente alcanzable, pero mucho menos que el tiempo de convergencia a la distribución estacionaria.
La superposición puede ser pensado como una medida de la separación de las esferas de influencia. Se invoca únicos mecanismos locales: los usuarios que viajan de una página a otra mediante los enlaces que los conectan. Esto es en contraste a una medida, tal como los caminos más cortos, lo que es computacionalmente caro y requiere un conocimiento detallado, global del enlace-estructura de la red. En general, por ejemplo, el número de nodos de un algoritmo necesita visitar el fin de determinar el camino más corto entre dos nodos por lo general será mucho mayor que la longitud de la trayectoria final.
Tanto la influencia y la superposición requieren que especifique los nodos particulares de interés; nos centramos en este trabajo sobre pares de páginas de alta CE, o normas básicas.

2.3. La coherencia semántica

Consideramos que las relaciones semánticas entre las páginas. Esto proporciona una noción de relación que es distinta de cómo las normas se conectan a través de hipervínculos. Para ello, hacemos (asignación de Dirichlet latente [53]) El modelado de tema en los uno-gramos del, texto legible aparece en cada página. Tema modelos nos permiten representar textos cortos, incluso cuando se obtienen de un rico vocabulario: temas de grano grueso de las distribuciones subyacentes más palabras.
Con el modelo resultante tema, entonces podemos calcular la distancia semántica entre todos los pares de páginas utilizando la distancia Jensen-Shannon (JSD), una medida que cuantifica la posibilidad de distinguir de las dos distribuciones [54]. Esto nos da una red semántica con peso que se puede comparar a la red de enlaces entre páginas. En particular, podemos calcular la coherencia semántica: la correlación de Pearson entre pi (la influencia del nodo p en el nodo i) y el JSD negativo desde el nodo P al nodo i, Ji. Cuando los nodos que están estrechamente relacionadas topológicamente también están estrechamente relacionadas semánticamente (JSD baja), la coherencia es alta.

2.4. La detección de la comunidad

Esperamos que los enlaces que los editores hacen a nivel local para dar lugar a grupos distintos, o haces norma, a nivel mundial. Usamos el algoritmo de detección de Lovaina comunidad [55] para detectar la agrupación entre los nodos de la red. El algoritmo de Lovaina maximiza la modularidad en cada partición local de la red. El primer algoritmo asigna a cada nodo i al otro clúster, a continuación, calcula la ganancia potencial de la modularidad i para unirse al grupo de su nodo vecino j. Cada voy a unirse al grupo de j cuando la combinación de la ganancia ofrece modularidad positiva más alta. Si no hay un posible aumento de la modularidad, que permanece en su grupo inicial.

viernes, 17 de junio de 2016

Redes de comercio marítimo (densas y animadas)

Esta es una visualización increíble de las rutas marítimas del mundo
por Brad Plumer | Vox

Cerca de 11 millones de toneladas de material deja llevar por todo el mundo cada año por buques de gran tamaño. Ropa, TV de pantalla plana, grano, automóviles, petróleo - el transporte de estas mercancías de puerto a puerto es lo que hace que la economía mundial va 'redondo.

Y ahora hay una gran manera de visualizar todo este proceso, a través de este mapa interactivo impresionante desde el Instituto de Energía de la UCL:




Puede utilizar las palancas en la parte superior del mapa para derribar las naves por tipo - portacontenedores (amarillo), graneleros secos (azul), los petroleros y combustibles (rojo), gaseros (verde), y barcos que transportan vehículos (púrpura) - o hacer zoom en las diferentes regiones.

Los investigadores reunieron datos de los miles de barcos comerciales que se movían a través del océano en 2012. Luego trabajaron con el estudio de visualización de datos del horno para que el mapa. Aquí están algunos puntos destacados aseado de jugar con la cosa:

1) Se puede trazar los contornos de los continentes exclusivamente al ver las rutas de envío


(Shipmap.org)

Puede alternar el mapa de modo que sólo muestra las principales rutas de navegación y nada más. Incluso en este caso, se puede ver claramente los continentes, con excepción de la región por encima del círculo polar ártico, donde viajan pocos barcos. (Aunque esto puede cambiar a medida que el hielo marino de verano mantiene en retroceso.)

También puede ver algunas de las principales vías fluviales en las que los grandes barcos pueden navegar - al igual que el río Amazonas, en el norte de Brasil, o el río San Lorenzo que permite a los barcos para viajar desde el Atlántico hasta los Grandes Lagos, o el complejo de Volga-Báltico navegable en Rusia.

También es fácil de detectar algunos centros de la economía mundial con este mapa. Las líneas rojas encima de los barcos que llevan trazas de combustibles líquidos - petróleo crudo o de gasolina. Como se puede ver, tanto en Louisiana y Texas son los principales centros de hidrocarburos. También hay gruesas líneas rojas que salían de la terminal de Valdez en Alaska, que está en el extremo sur de la tubería de Alaska, con lo que el petróleo de los campos en el norte.

2) Hay un importante cuello de botella del envío alrededor de Malasia y Singapur


(Shipmap.org)

Una de las rutas marítimas más importantes del planeta es el estrecho de Malaca, la ruta más corta entre el Pacífico y el Índico, que se puede ver aquí como una línea congestionada de barcos que viajan más allá de Singapur, Malasia e Indonesia. Alrededor del 40 por ciento del comercio mundial pasa a través de este estrecho cada año, incluyendo gran parte del crudo que va desde el Oriente Medio a China.

Pero el angosto estrecho también es vulnerable a la interrupción - y en los últimos años, ha habido un repunte de los ataques de piratas en estos estrechos. Técnicamente, los tres estados limítrofes - Singapur, Malasia e Indonesia - son responsables de la seguridad en esta región, defendiéndola contra la piratería, sino porque es tan crucial, los EE.UU., China, India y Japón han prestado asistencia en la obtención de la región .

Desafortunadamente, no hay forma fácil de solucionar. Los buques que no caben por el estrecho (su profundidad mínima es de aproximadamente 82 pies) tienen que tomar un desvío de miles de millas más al sur.

3) En el año 2012, la mayoría de los barcos mantuvo alejado de Somalia


(Shipmap.org)

A partir de alrededor de 2005, los piratas armados de Somalia comenzaron la intensificación de las incursiones de los buques que viajan alrededor del Cuerno de África. Algunos analistas argumentaron que la pesca ilegal de barcos extranjeros en la región había conducido inicialmente muchos pescadores somalíes para formar milicias armadas para defender sus aguas. Pero aquellos grupos más tarde se volvieron a apoderarse de los buques de carga y la celebración de los equipos de rescate.

Para el año 2012, los piratas estaban costando barcos comerciales entre $ 900 millones y $ 3.3 mil millones por año. Y, como se puede ver en los mapas anteriores, muchos barcos se mantuvieran alejados de la costa de Somalia después de salir del estrecho de Mandeb entre Yemen y Yibuti, que conduce hasta el canal de Suez.

Pero eso fue también la piratería somalí pico. En los años siguientes, las incursiones parecen haber disminuido drásticamente. Las compañías navieras aumentaron su seguridad en el barco mientras que varios militares desplegados buques armados para patrullar la región. Según la mayoría de las cuentas, parece haber funcionado.

4) Los buques tienen que moverse en rutas ordenadas en espacios reducidos, como el Canal Inglés


(Shipmap.org)

Los investigadores han señalado que "mientras que los buques pueden moverse libremente a través del océano abierto, las rutas están predeterminados más cerca de la tierra." Esto es evidente en el Canal Inglés, donde los barcos necesitan moverse en Niza, carriles aseado - como si se tratara de una carretera de dos carriles.

5) Se puede ver barcos esperando su turno en el Canal de Panamá


(Shipmap.org)

Cada año, cerca de 15.000 barcos pasan por el Canal de Panamá que conecta los océanos Pacífico y Atlántico. Sólo unos pocos barcos pueden pasar por las esclusas estrechos en un momento en que suben y bajan usando el agua del lago por encima lentamente. Así barcos anclan fuera del canal, a veces durante semanas, mientras esperan su turno asignado. (En total, alrededor de 30 a 40 barcos grandes pasan por el canal cada día.)

Para hacer frente a la próxima generación de grandes buques portacontenedores, el Canal de Panamá se encuentra en expansión, con un juego adicional de esclusas en el Atlántico y el Pacífico. Incluso esta expansión, sin embargo, no será capaz de manejar el mayor conjunto de buques portacontenedores - que puede ser tan grande como cuatro campos de fútbol de extremo a extremo establecidos.

Por lo tanto, ¿qué hacen esos gigantes? Nicaragua ha pensado en la construcción de su propio canal, grande para dar cabida a estos barcos, pero que nunca se puede conseguir construido (y es un fracaso para toda una serie de razones). Así que, por ahora, los grandes barcos todavía tienen que recorrer todo el camino alrededor de América del Sur.

6) Los buques del mundo son una fuente importante de emisiones de dióxido de carbono

(Shipmap.org)

Hay un enorme costo de todo este envío. Los barcos tienen que quemar una gran cantidad de combustible líquido, y en 2012, acabaron emitiendo alrededor de 796 millones de toneladas de dióxido de carbono. Los investigadores señalan que eso es más que "el conjunto del Reino Unido, Canadá o Brasil emiten en un año." O, dicho de otra manera, el envío es responsable de alrededor de un 3 a 4 por ciento de las emisiones de gases de efecto invernadero de origen humano.

Ahora, esto sigue siendo mucho más eficiente que el envío de todas esas cosas por tierra o por aire. Aún así, los investigadores han estado buscando formas de reducir el tamaño de la huella de carbono del sector del transporte marítimo. Nate Berg corrió a través de algunas de las mejores ideas aquí: "A partir de las mejoras tecnológicas, tales como timones y hélices readaptadas a mejorado de enrutamiento tiempo, las compañías navieras están viendo muchas maneras de mejorar su eficiencia."

martes, 14 de junio de 2016

Visualizando comunidades en Twitter usando Gephi

Visualización de las agrupaciones de Twitter con Gephi (actualización)
por Gabe Sawhney

[Esta actualización de mi proyecto de visualización de clúster Twitter es también el informe final para el estudio independiente que he estado haciendo en infoviz. Definitivamente, voy a recoger este trabajo de nuevo pronto, pero no en el próximo par de semanas. Un post anterior con algunas de mis primeras pruebas y fundamentos está aquí. Un tutorial sobre cómo empezar a hacer estos está aquí.]

Durante los últimos meses he estado absorbiendo mucho acerca de la visualización de información, y en las últimas cuatro semanas que he estado haciendo un montón de trabajo específicamente en la visualización de clusters basados ​​en la red Twitter. El objetivo de esto se describe en un post anterior. En el camino, he aprendido un montón raro de otras cosas: el ajuste del rendimiento de MySQL, las ventajas de la API de Google Social Graph sobre la API de Twitter, cómo moverse por el hecho de que muchos de los equipos del laboratorio de OCAD todavía se están ejecutando OS 10.5, cómo hacer un screencast, etc. Quiero aprovechar este trabajo en un montón de otras direcciones (y, una vez que me he ocupado de mis otras fechas límite). He aquí algunos de los mapas más interesantes que he producido a lo largo del camino:

En pocas las personas que siguen. (193 nodos, 192 enlaces):



Las personas que siguen, incluyendo los enlaces entre ellos (193 nodos, 2813 enlaces):



Los mismos datos, pero ahora con las agrupaciones identificadas:



Hay 7 "comunidades", que corresponden (¡torpemente!) a estas comunidades en el mundo real: arte / previsión / grandes datos; Toronto; tecnología Toronto; CFC / OCAD; Vancouver / Montreal / académicos; innovación social; otro.

Ahora vamos más grande - 6528 nodos y 30599 enlaces. Que es todo el mundo que sigo, y todo el mundo que siguen, pero filtrando aquellos que son seguidos por menos de dos personas en el resto de la red. Aquí es donde el algoritmo de agrupamiento incorporada en Gephi comienza a sturggle: se identificaron 103 agrupaciones:



Se trata de los mismos datos, pero los que tienen menos de 3 seguidores en la red se filtran, al igual que cualquier usuario con más de 4000 seguidores (desde cualquier lugar, no sólo por esta red). El número de grupos se redujo a 30. 2674 nodos, 14376 enlaces:



La misma idea, pero esta vez con mayores restricciones: el "Grado A" tenían que ser de al menos 2, y excluye cualquier persona con más de 2000 seguidores. 4061 nodos, 11667 enlaces, 402 comunidades (!):





Lo probé en las redes de los demás. Aquí hay uno; Sólo los seguidores directos. Las etiquetas también! (150 nodos, 2440 enlaces, 5 grupos):



Sobre el papel, se ve mucho mejor con un fondo negro. ¿Tal vez ocupa la pantalla demasiado ?:



Y un screencast de venir juntos:





Aquí hay otro, de nuevo sólo los seguidores directos. Dos versiones (208 nodos, 3013 enlaces, 7 clusters):




Mismos datos, pero esta vez sólo los nodos donde "In-Degree"> = 5 (4252 nodos, 34897 enlaces, 10 clusters):



He jugado un poco un manojo con la elaboración de mapas de dos o tres redes de personas a la vez, para ver hasta qué punto se superponen. Me pareció mucho más difícil para que sean legibles. Aquí hay una que resultó bien. Es toda la gente que sigo, y toda la gente que sigue a Greg. 568 nodos, 11732 enlaces, 8 comunidades. tamaño de los ganglios se corresponde con el número de seguidores que tiene la persona. Dos versiones, mismos datos, sólo una prestación diferente (hay un elemento de aleatoriedad al proceso):



También hice de screencast de éste:




En su presentación en estratos sobre la creación de prototipos con los datos, Tom Coates de Nokia dijo que a través de la experimentación (jugar?) Y la creación de prototipos, que "empiezan a desarrollar una comprensión más coloquial de los datos ...", que es muy valiosa para cuando llega el momento de desarrollar real ideas de productos. Me había olvidado de ese comentario hasta un punto intermedio de este trabajo. Yo estaba súper orgulloso de mis primeros mapas, pero se ven muy incómoda ahora. Durante estas semanas de trabajo con estos datos, he hecho progresos en encontrar la manera de manejar la situación, en primer lugar, cómo hacer que sea más legible, la forma de hacer que se vea mejor, y, de una manera que puedo " t aún describir, cómo funciona. No estoy todavía en la etapa de desarrollo de productos, pero por suerte que no era el objetivo.

Los lugares que voy a ir con ella al lado son:

  • Profundizar en la investigación sobre algoritmos de agrupamiento, y averiguar lo que sería necesario para ajustar el método de agrupación existente en Gephi, o crear otros nuevos que son más adecuados para grandes redes.
  • Hacer un montón de experimentos en la eliminación de nodos con un gran número de seguidores - estos tienden a ser no-humanos (como @TheOnion y @shitmydadsays) o celebridades (como @BarackObama y @ConanOBrien), y creo que ya que muchas personas de tantas comunidades diferentes que siguen, podrían ser 'cortocircuitos' el análisis de conglomerados. Experimentando con esto significaría ya sea manualmente la identificación de los usuarios de Twitter no humanos, o el uso de ensayo y error para ver si la eliminación de los usuarios con un gran número de seguidores da buenos resultados. (La solución fresca a este problema sería eliminar sólo aquellos usuarios que tienen un gran número de seguidores de un conjunto muy diverso de comunidades. Ni idea todavía cómo podría determinar eso.)
  • Mira en ajustar y escribir nuevas posibilidades de diseño y estilo con Gephi, mediante la creación de plugins.
  • La automatización de la creación de mapas, utilizando el kit de herramientas de Gephi, y / o una biblioteca de procesamiento que está en desarrollo. Las dos posibilidades inmediatas que esto introduciría son:
    • La creación de una página web en la que un usuario puede introducir un ID de Twitter y generar un mapa para ellos sobre la marcha (o en unos pocos minutos).
    • Prueba de diseño o de visualización algoritmos en un gran número de redes de los usuarios. Esto podría ser especialmente útil para el trabajo de ensayo y error requerido para hacer frente a las celebridades y los usuarios no humanos.