Mostrar el registro sencillo del registro

dc.rights.licenceAtribución-NoComercial-SinDerivadas 4.0 Internacional*
dc.contributor.authorLópez-López, Wilson
dc.date.accessioned2020-04-15T18:25:26Z
dc.date.available2020-04-15T18:25:26Z
dc.date.created2014-12-31
dc.identifierhttp://revistas.javeriana.edu.co/index.php/revPsycho/article/view/12549
dc.identifier.issn2011-2777
dc.identifier.issn1657-9267
dc.identifier.urihttp://hdl.handle.net/10554/32556
dc.description.abstractThe growth in production and diffusion of knowledge worldwide has been joined by a fortunate growth in impact measurement systems (Arencibia Jorge & de Moya Anegón, 2008; Guerrero Bote, Olmeda-Gómez, & de Moya-Anegón, 2013; Sugimoto et al., 2013). Other measures have joined the traditional Impact Factor (IF) from the Journal Citation Reports (JCR), part of the Thomson Reuters Web of Science (WOS), and the Scimago Journal Rank (SJR) based on Elsevier’s Scopus rankings. These new measures supplement scientometric analyses of scientific output in different areas. Amongst these new indicators we find the SNIP, which measures the contextual impact of the journal, the IPP, which measures the impact per published paper, the web-based Eigenfactor (http://eigenfactor.org), which assesses the importance of a journal (Bergstrom, West, & Wiseman, 2008), the h factor or metrics derived from Google Scholar. This trend is on the rise and new indicators aimed to enrich the understanding of scientific publication will probably appear (Acevedo-Triana, López-López, & Parra, 2014; McKerlich, Ives, & McGreal, 2013). These and other derived indicators like quartiles and deciles and h and g indexes, are tools that not only allow us to understand scientific communication, but that have taken upon a significant role in assessing researchers, journals, training programmes, institutions and even regions and countries. These assessments have an effect on resource flows for research and accreditation systems in institutions (Batista, Campiteli, Kinouchi, & Martinez, 2006; Macilwain, 2010, 2013). Their importance is clear and it is better to try and understand them in order to find criticisms or to improve upon them than to ignore them. Information and Communication Technologies (ICT), especially the Web, have created new forms of communication and evaluation. Alternative measuring systems have been developed as well from the Web: Webmetrics emerge around 1990 according to Cabezas and Jiménez (2013) and their goal is to measure everything related to the web, from economic and social aspects to technical issues. Therefore, it goes beyond traditional bibliometric methodologies, even though those are used within Webmetrics. In any case, new indicators such as downloads, visits, recommendations and others derived from content management in the Web come to play, showing supplementary patterns (Torres-Salinas, Cabezas-Clavijo, & Jiménez-Contreras, 2013). The speed with which these indicators can be created and analysed is critical, since real-time information can nearly always be provided, detailed by users, locations and usage times. Thanks to this, gray literature, that is, buried, never-cited papers, and even informal conversations, can live and have an effect on knowledge communication dynamics. Authors can bring importance to discussions on Facebook, Twitter, blogs, and academic networks such as Mendeley, Academia.edu and ResearchGate) – with effects that we have yet to discover. Today, we can classify usages of digital libraries (number of readers, group), social network mentions (Facebook, Google+, Twitter), blog posts, encyclopedias (Wikipedia, Scholarpedia), news content aggregators, and when all our training programmes are open we will be able to more clearly understand the use of research resources in training processes. Nowadays, the Internet makes it possible for data to be shared and for knowledge building to be performed by diverse communities in different places in the world, and it can be a more efficient resource for peer-review and plagiarism control. Evidently, Altmetrics and other resources are under development. Hence, we must think of the interaction possibilities and the ability to supplement existing information that bibliometric and Altmetrics indicators bring about, together with new dynamics for peer review. Nevertheless, and perhaps this is their most relevant contribution, thanks to them we are about to stop depending on private, closed indicators and we can now openly measure the relationship between academic and social appropriation of knowledge, which will enable us to create new ways in which scientific communities and society at large can communicate. Altmetrics is in its infancy but alternative metrics will surely transform communication and scientific knowledge production. We need to think about these new resources and prepare to efficiently assume these new dynamics in order to enrich our static evaluation systems. References Acevedo-Triana, C., López-López, W., & Parra, F. C. (2014). Recomendaciones en el diseño, la ejecución y la publicación de investigaciones en Psicología y ciencias del comportamiento. Revista Costarricense de Psicología, 33(2), 155–177. Arencibia Jorge, R., & de Moya Anegón, F. (2008). La evaluación de la investigación científica: una aproximación teórica desde la cienciometría. ACIMED, 17(4). Batista, P. D., Campiteli, M. G., Kinouchi, O., & Martinez, A. S. (2006). Is it possible to compare researchers with different scientific interests? Scientometrics, 68(1), 179–189. doi:10.1007/s11192-006-0090-4 Bergstrom, C. T., West, J. D., & Wiseman, M. A. (2008). The EigenfactorTM Metrics. Journal of Neuroscience, 28(45), 11433–11434. doi:10.1523/JNEUROSCI.0003-08.2008 Guerrero Bote, V. P., Olmeda-Gómez, C., & de Moya-Anegón, F. (2013). Quantifying the benefits of international scientific collaboration. Journal of the American Society for Information Science and Technology, 64(2), 392–404. doi:10.1002/asi.22754 Macilwain, C. (2010). Science economics: What science is really worth. Nature, 465(7299), 682–4. doi:10.1038/465682a Macilwain, C. (2013). Emerging powers need a more-inclusive science. Nature, 505, 7. McKerlich, R., Ives, C., & McGreal, R. (2013). Measuring use and creation of open educational resources in higher education. International Review of Research in Open and Distance Learning, 14(4), 90–103. doi:10.1002/asi Sugimoto, C. R., Thelwall, M., Larivière, V., Tsou, A., Mongeon, P., & Macaluso, B. (2013). Scientists popularizing science: characteristics and impact of TED talk presenters. PloS One, 8(4), e62403. doi:10.1371/journal.pone.0062403 Torres-Salinas, D., Cabezas-Clavijo, Á., & Jiménez-Contreras, E. (2013). Altmetrics: New Indicators for Scientific Communication in Web 2.0. Comunicar, 21(41), 53–60. doi:10.3916/C41-2013-05spa
dc.formatPDFspa
dc.format.mimetypeapplication/pdfspa
dc.language.isospa
dc.publisherPontificia Universidad Javerianaspa
dc.relation.urihttp://revistas.javeriana.edu.co/index.php/revPsycho/article/view/12549/10216
dc.titleAltmetrics and other Alternative Indicators to Measure Knowledge Diffusionspa
dc.type.hasversionhttp://purl.org/coar/version/c_970fb48d4fbd8a85
dc.title.englishAltmetrics y otros indicadores alternativos para la medición de la divulgación del conocimientoeng
dc.description.abstractenglishEl crecimiento en la producción y divulgación de conocimiento en el mundo ha estado acompañado de un afortunado crecimiento en los sistemas de medición del impacto del mismo (Arencibia Jorge & de Moya Anegón, 2008; Guerrero Bote, Olmeda-Gómez, & de Moya-Anegón, 2013; Sugimoto et al., 2013). A los indicadores tradicionales como el Journal Citation Reports (JCR) de Web of Science (WOS) de la compañía Thompson Reuters que mide el conocido factor de impacto (IF) y al indicador Scimago Journal Rank (SJR); que mide el impacto después de normalizar el área y el prestigio de la revista de donde se recibe la citación, que es usado por la base de datos SCOPUS de la casa editorial ELSEVIER, se han sumado otras mediciones que complementan el análisis cienciométrico de la producción en cualquier área. Estos otros indicadores como el SNIP que mide impacto contextual de la publicación y el IPP que mide el impacto por artículo publicado en una revista, se han complementado con poderosos indicadores extraídos de la web como el Eigenfactor (http://eigenfactor.org/) para evaluar la importancia de una publicación en el ámbito científico (Bergstrom, West, & Wiseman, 2008), el factor h o las métricas derivadas de Google Scholar. Esta tendencia tiende a aumentar y seguramente aparecerán nuevos indicadores que están encaminados en favorecer la riqueza y comprensión de la publicación científica (Acevedo-Triana, López-López, & Parra, 2014; McKerlich, Ives, & McGreal, 2013). Estos indicadores, y sus derivados; como la posición de los cuartiles y los deciles de las revistas e índices como el h y el g, no son solo herramientas de comprensión de la comunicación científica sino que han cobrado un papel determinante en la evaluación de investigadores, revistas, programas de formación, instituciones e incluso regiones y países dichas evaluaciones además afectan los flujos de recursos para la investigación y los sistemas de acreditación de las instituciones (Batista, Campiteli, Kinouchi, & Martinez, 2006; Macilwain, 2010, 2013). La importancia de los mismos es evidente y tratar de desconocerla, más que comprenderla para generar crítica o nuevas formas de medición, es poco productivo. Así, es claro que el desarrollo de las tecnologías de información y comunicaciones (TICS) en especial en la web han generado nuevas formas de comunicación y evaluación. La web ha generado también sistemas alternativos de medición de la circulación del conocimiento, la Webmetria surge según Torres, Cabezas y Jiménez (2013) alrededor de 1990 y su objetivo es conocer todo lo derivado de la web, desde sus impactos económicos y sociales hasta aspectos técnicos de la misma, por tanto desborda los aspectos de las metodologías bibliométricas, aunque las usan en sus análisis. En cualquier caso, ponen en juego nuevos indicadores, por ejemplo, los derivados de los usos medidos en descargas, las visitas, las recomendaciones, entre otros, que muestran patrones complementarios a los de la bibliometría (Torres-Salinas, Cabezas-Clavijo, & Jiménez-Contreras, 2013). Por otro lado, la velocidad con la que estos indicadores pueden producirse y ser objeto de análisis es determinante, pues entrega información de usos prácticamente en tiempo real y permite discriminar los usuarios, lugares y tiempos de uso. Pero además, hoy en día los artículos enterrados y sin ninguna cita, o la denominada literatura gris, e incluso las conversaciones informales en un pasillo pueden tener vida e incidencia en las dinámicas de la comunicación de conocimiento. Los autores les pueden dar vida en discusiones en Facebook, Twitter, en Blogs, en la red e incluso en las redes académicas (Academia, Mendeley, Research Gate y demás, que pueden generar procesos insospechados. Hoy se puede clasificar los usos en las bibliotecas digitales (número de lectores, de grupos a los que se ha añadido y de lectores) menciones en redes sociales (Facebook, Google-plus, Twitter) menciones en Blogs, en enciclopedias (Wikipedia Scholarpedia), misiones en sistemas de producción de noticas y cuando tengamos todos los programas de formación en recursos abiertos esto permitirá evidenciar más claramente el uso de los recursos de investigación en los procesos de formación. Hoy los recursos de la red pueden generar que se discutan, compartan datos y se construya entre comunidades diversas en diferentes partes del mundo y mejor aún que puedan servir de recurso más eficiente para la revisión de pares y para el control contra el plagio. Es evidente que los recursos de Altmetrics y su impacto en la ciencia están aún en desarrollo. Así, debemos pensar entre los indicadores bibliométricos y los de Altmetrics las posibilidades de interacción y el complemento de información, así como, las distintas dinámicas que surgen de la evaluación de pares expertos. Sin embargo, y quizás es el aporte más relevante, estamos a punto de poder traspasar los límites de indicadores privados y cerrados al mundo académico y poder medir la relación entre apropiación académica y apropiación social del conocimiento, proponiendo nuevas formas de comunicación entre las comunidades científicas y la sociedad en general. Hoy Altmetrics está en sus primeras etapas de desarrollo y seguramente transformarán la comunicación y la producción de conocimiento científico, debemos pensar en los nuevos recursos y prepararnos para estas asumir con eficiencia estas nuevas dinámicas para incorporarlas en nuestros sistemas de evaluación estáticos. Referencias Acevedo-Triana, C., López-López, W., & Parra, F. C. (2014). Recomendaciones en el diseño, la ejecución y la publicación de investigaciones en Psicología y ciencias del comportamiento. Revista Costarricense de Psicología, 33(2), 155–177. Arencibia Jorge, R., & de Moya Anegón, F. (2008). La evaluación de la investigación científica: una aproximación teórica desde la cienciometría. ACIMED, 17(4). Batista, P. D., Campiteli, M. G., Kinouchi, O., & Martinez, A. S. (2006). Is it possible to compare researchers with different scientific interests? Scientometrics, 68(1), 179–189. doi:10.1007/s11192-006-0090-4 Bergstrom, C. T., West, J. D., & Wiseman, M. A. (2008). The EigenfactorTM Metrics. Journal of Neuroscience, 28(45), 11433–11434. doi:10.1523/JNEUROSCI.0003-08.2008 Guerrero Bote, V. P., Olmeda-Gómez, C., & de Moya-Anegón, F. (2013). Quantifying the benefits of international scientific collaboration. Journal of the American Society for Information Science and Technology, 64(2), 392–404. doi:10.1002/asi.22754 Macilwain, C. (2010). Science economics: What science is really worth. Nature, 465(7299), 682–4. doi:10.1038/465682a Macilwain, C. (2013). Emerging powers need a more-inclusive science. Nature, 505, 7. McKerlich, R., Ives, C., & McGreal, R. (2013). Measuring use and creation of open educational resources in higher education. International Review of Research in Open and Distance Learning, 14(4), 90–103. doi:10.1002/asi Sugimoto, C. R., Thelwall, M., Larivière, V., Tsou, A., Mongeon, P., & Macaluso, B. (2013). Scientists popularizing science: characteristics and impact of TED talk presenters. PloS One, 8(4), e62403. doi:10.1371/journal.pone.0062403 Torres-Salinas, D., Cabezas-Clavijo, Á., & Jiménez-Contreras, E. (2013). Altmetrics: New Indicators for Scientific Communication in Web 2.0. Comunicar, 21(41), 53–60. doi:10.3916/C41-2013-05eng
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.type.localArtículo de revistaspa
dc.type.coarhttp://purl.org/coar/resource_type/c_6501
dc.relation.citationissueUniversitas Psychologica; Vol. 13 Núm. 5 (2014): Special History of Psychology; 1645-1646spa
dc.relation.citationissueUniversitas Psychologica; Vol 13 No 5 (2014): Special History of Psychology; 1645-1646eng
dc.rights.coarhttp://purl.org/coar/access_right/c_abf2spa
dc.type.driverinfo:eu-repo/semantics/article
dc.type.otherArtículo revisado por pares


Ficheros en el registro

FicherosTamañoFormatoVer

No hay ficheros asociados a este registro.

Este registro aparece en la(s) siguiente(s) colección(ones)

  • Universitas Psychologica [1206]
    La revista tiene como objetivo primordial la divulgación del trabajo científico e investigativo de la psicología, desde un amplio espectro temático y teórico. Es una publicación de carácter general y plural, y publica artículos originales de investigación, de revisión, contribuciones teóricas o metodológicas, como también reseñas de libros y entrevistas. Algunos números corresponden a especiales temáticos en diferentes áreas de la psicología (números monográficos). Universitas Psychologica es producida cuatrimestralmente por la Facultad de Psicología.

Mostrar el registro sencillo del registro