Finalmente, se hace una reflexión sobre la ventana de oportunidad que ge neran los Big Data y los retos que conlleva como para que se conviertan en un verdadero beneficio para pro veedores de salud pediátricos. Este trabajo fue realiza do sobre la base de una revisión bibliográfica no sis temática, centrada en ámbito de la pediatría y para la elección de los ejemplos de aplicación se consideró que fueran de fuentes primarias y reportados en los últimos cinco años. En la etapa de salida de datos, también conocida como etapa de interpretación de datos, el procesador traduce y presenta los datos en un formato de datos legible, como documentos, gráficos, imágenes, etc. Los datos se recopilan de fuentes confiables, incluidas bases de datos como lagos de datos y almacenes de datos. Es crucial que las fuentes de datos sean precisas, confiables y bien construidas para garantizar que los datos recopilados y la información recopilada sean de calidad y funcionalidad superiores. Frente a la evolución de los datos, la calidad de los mismos es fundamental ante la rapidez con que se generan, el procesamiento de la información, el incremento en la capacidad de almacenamiento y la posibilidad de realizar análisis más complejos.
La meta de la búsqueda de fuentes documentales para dar cuenta de la literatura que existe sobre el tema se completó al identificar el criterio del análisis de grandes cúmulos de datos, también conocido como big data analytics, y el concepto de los derechos humanos relacionado al big data. Metcalf y Crawford, por su parte, resaltan los riesgos en el uso del big data al mencionar que la serie de datos que se presentan en los resultados de investigaciones científicas, sean estos parciales o finales, parecería tener un mínimo de riesgo al ser compartidos. Por este tipo de situaciones es que hoy las discusiones, estudios y reflexiones invitan al desarrollo de estudios éticos utilizando el big data (2016, p. 1). Sin embargo, las estadísticas que se obtienen con la técnica de análisis de los grandes cúmulos de datos también permiten dar cuenta de las curso de desarrollo web violaciones a los derechos humanos, por lo que pueden considerarse como herramientas útiles para que tanto los agentes gubernamentales como la comunidad internacional puedan hacer uso de ellos, observar tendencias y emitir alarmas. Las Naciones Unidas ya ha considerado los macrodatos para contribuir al desarrollo sostenible a través de su proyecto «Construyendo nuestro futuro juntos», en el cual contempla el uso de los macrodatos para el desarrollo sostenible. El presente artículo tiene como objetivo brindar al lector una aproximación sobre los estudios publicados en los últimos años que dan cuenta del manejo de la infraestructura tecnológica y la gestión del conocimiento que se genera a través de los análisis de grandes cúmulos de datos o macrodatos (conocidos también como big data analytics) relacionados al tema de los derechos humanos.
Otro tipo de investigación de IA utilizando aprendizaje profundo es mediante el uso del lenguaje natural, que permite crear nuevos medicamentos a partir de la búsqueda de compuestos existentes (Freedman, 2019). Para ello se analiza cómo el virus entrega su material genético a una célula infectada, con el fin de crear un modelo predictivo acerca de la estructura proteínica que permita a posteriori buscar aquellas que puedan inhibir este proceso (Réda, Kaufmann & Delahaye, 2020). Nouvet y Mégret exponen que el análisis de big data, como método cuantitativo para analizar las violaciones a los derechos humanos, es una contribución de gran envergadura para las ciencias sociales; y que a pesar de que este tipo de herramientas tecnológicas no fue planeado precisamente con la finalidad de aportar a los derechos humanos, en la práctica son de gran utilidad (2016, pp. 1-2). El análisis de big data permite tener información real de los individuos y, a su vez, modelar los datos para un propósito específico como predecir las decisiones de los individuos (Paterson & Maeve, 2018, p. 18). Es necesario entender y dimensionar el hecho de que la técnica de análisis de grandes cúmulos de datos no solo afecta la privacidad de los individuos, sino que también hay otros derechos humanos que pueden verse afectados con un manejo irresponsable de esta información.
Para efectos del presente artículo, nos bastará concebir la Ciencia de Datos como la disciplina del “estudio científico de la creación, validación y transformación de datos para crear significado”133. Para crear significado, lo más relevante es extraer información interpretable a partir de cantidades masivas de datos, por lo que nos enfocaremos en los métodos de análisis que usa la Ciencia de Datos, dejando de lado las dificultades, los desafíos, y las técnicas computacionales y algorítmicas asociadas a las tres primeras Vs de Big Data. La presentación y discusión tendrá un punto de vista estadístico, teniendo similitudes con la disciplina del Aprendizaje https://www.edy.com.mx/2023/12/aspectos-basicos-que-cualquier-curso-online-de-ciencia-de-datos-deberia-ensenarte/ Estadístico de la que la Ciencia de Datos se nutre; ver, por ejemplo, (34-38) siendo referencias útiles para aprender más de esta disciplina34-40. Nos ayuda a comprender el contenido de una base de datos, filtrarlo, limpiarlo y eliminar todo aquello que no aporta a lo que buscamos. Para ello se utiliza estadística, algoritmos… Nos ayuda a obtener información relevante a partir de los datos. Otra diferencia fundamental con las encuestas de opinión es que la información y los temas de búsqueda no se definen ex ante en una pauta de encuestador, sino que estos aparecen como una masa de información tremenda que debe ser ordenada y clasificada ex post.
Dada la naturaleza del objeto, este tipo de preguntas han sido abordadas de manera multidisciplinaria, conectando las ciencias de análisis de datos y programación, con ciencias del comportamiento humano como la sociología, la ciencia política y la psicología social. En Chile y Latinoamérica, sin embargo, esta agenda de investigación está en pleno desarrollo y los trabajos ensayísticos dan paso de a poco a los intentos por entender y sistematizar la relación entre política y redes sociales de manera empírica. Es importante mencionar que la República de Corea proporciona acceso a información anónima de pacientes con COVID-19, incluyendo el historial médico de cinco años de cada paciente, con el fin de que al realizar un estudio de trazabilidad mediante aprendizaje profundo se cuente con una alta cantidad de información útil a estos propósitos.
‘Big data’ contra el cáncer.
Posted: Thu, 16 Jun 2016 07:00:00 GMT [source]
De esta forma se puede afirmar que la “datificación” en el ámbito de la salud es una tradición muy antigua en cambio, la digitalización ha llegado de la mano con la incorporación de las TI en la atención de salud. Éstas han permitido, entre otros, la generación del Registro Electrónico de datos de Salud (RES o en inglés EHR) o Ficha Clínica Electrónica (FCE), los cuales compilan las historias clínicas de una persona5 y que pueden ser consultados por personal de salud6. Esta innovación tecnológica ha puesto a disposición una cantidad ilimitada de información susceptible de ser analizada, la cual abre múltiples oportunidades para explorar soluciones clínicas o administrativas que vayan en beneficio de la salud de un individuo, pero también, se abren flancos de precaución en cuanto al tratamiento confidencial de los datos clínicos y sus as pectos legales, entre otros. El avance tecnológico, tanto en lo que se refiere al almacenamiento como al análisis de esta producción masiva de datos, promete convertirse en una poderosa herramienta, que si se utiliza adecuadamente podría ser muy beneficiosa para las personas y, en el mejor escenario, redundar en una mejor calidad de vida. Sin embargo, también genera muchas dudas en cuanto a un uso malicioso y controlador por los intereses de grandes compañías de la industria2, así como también se advierte sobre los excesos de la cuantificación3, lo que podría llevar de vuelta al reduccionismo cuan titativo, implicando un retroceso en cuanto al valor que ha cobrado la comprensión de los fenómenos en estudio.
Esto involucra desde los escáneres faciales para identificación de síntomas como la fiebre, wearables para medición y detección de anomalías cardiacas o respiratorias, hasta chatbots que evalúan a un paciente cuando este menciona sus síntomas y, basado en las respuestas dadas, el sistema le indica si debe permanecer en casa, llamar al médico o ir al hospital. 2, si se revisa según el tipo de recurso, se ve una marcada tendencia hacia los artículos de conferencia, con un total de 9.493 resultados. Los artículos científicos muestran 4.824 resultados, mientras que los capítulos de libro y los libros solo despliegan 388 y 88 resultados respectivamente, lo anterior ratifica la etapa naciente en que se encuentra este campo de estudio, puesto que sus bases teóricas apenas se están consolidando. La mínima cantidad de información que puede ser procesada por un aparato tecnológico es el bit, el cual sólo puede ser expresado en ceros o unos, mientras que un byte es un conjunto de 8 bits. Así entonces, un Gi gabyte (Gb) corresponde a 109 byte, un Terabyte (Tb) a 1012, un Petabyte (Pb) a 1015 y un Exabyte (Eb) a 1018 bytes. Por tanto, cuando se habla de datos masivos, se está refiriendo a una generación de datos del orden de los Pb y Eb o superior.
El otro aspecto que define a los Big Data es la ve locidad, lo cual hace alusión al ritmo en que los datos se producen, pero también a la capacidad de respuesta en el análisis como para hacer de la información un producto que dé soluciones innovadoras y eficientes9. Por otra parte, los Microdatos corresponden a los registros de las características de las unidades de aná lisis de una población en estudio (individuos, hogares, establecimientos, entre otros), los cuales son recogidos por medio estadísticos formales. Por ejemplo, los re gistros de atención de salud permanente, las encuestas nacionales de salud y censos de población podrían dar origen a Microdatos. En la actualidad, cualquiera de nuestras acciones, ya sea de manera consiente o inadvertidamente, son susceptibles de producir información registrable y ana lizable. El programa de televisión o la película que se leccionamos para ver, los lugares que frecuentamos, el vestuario, medicamento o cualquier otro artículo que consumimos son algunos ejemplos de nuestros actuar cotidiano que va dejando una huella digital de nuestro comportamiento. Esto ha hecho que cada día se pro duzca un gran volumen de información, donde se ha estimado que en el mundo se producen diariamente 2.5 x 1030 bytes, es decir 2,5 quintillones de datos1.
Cookie | Duration | Description |
---|---|---|
cookielawinfo-checkbox-analytics | 11 months | This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics". |
cookielawinfo-checkbox-functional | 11 months | The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional". |
cookielawinfo-checkbox-necessary | 11 months | This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary". |
cookielawinfo-checkbox-others | 11 months | This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other. |
cookielawinfo-checkbox-performance | 11 months | This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance". |
viewed_cookie_policy | 11 months | The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data. |