Cómo analizar cuantitativamente datos cualitativos

ANÁLISIS DE DATOS CUALITATIVOS

Las técnicas de análisis de datos cualitativos aplicadas a investigación de mercado y de opinión pública, o a la investigación de las comunicaciones institucionales y de marketing, han aportado durante décadas valiosa información acerca de la estructura, dimensiones y significaciones de los discursos de los consumidores, usuarios, ciudadanos, o receptores de mass media, respectos de los comportamientos sociales, políticos o de compra de productos, imágenes de marcas corporativas, o de consumo de medios.

Ha sido y es una fase necesaria en la investigación de los problemas de comunicación, marketing u opinión pública que requieren de un estudio preliminar de tipo exploratorio-cualitativo. Antes de describir es necesario explorar.

La fase cualitativa de la investigación no estructurada cubre los siguientes objetivos generales:

  • Conocer el discurso espontáneo del colectivo a investigar en lo referente al conocimiento, identificación del producto o marca, así como los ejes imaginarios y simbólicos sobre los cuales posicionan espontáneamente, desde su propia manera de pensar y sentir, las opiniones sobre un producto o servicio concreto.
  • Conocer el discurso espontáneo del colectivo a investigar en lo relativo a las expectativas, demandas, opiniones en general, así como el grado de satisfacción y nivel de información sobre el objeto o producto.

Estos discursos -individuales o grupales- son datos cualitativos expresados en forma de cadenas verbales (‘string’ = cadena) o sintagmas lingüísticos.

Estos materiales (‘verbatim’) no solo pueden ser analizados, interpretados y modelizados desde marcos teóricos cualitativos (psicológicos, psicoanalíticos, psicosociales, antropológico culturales, lingüísticos, semiológicos o retóricos, etc.), sino que se pueden complementar con el uso de análisis estadístico en la investigación cualitativa.

ANÁLISIS ESTADÍSTICO DE DATOS CUALITATIVOS

Los datos registrados -impresos, manuscritos o desgrabados- en forma de notas tomadas durante una observación, respuestas libres a preguntas abiertas, transcripciones de entrevistas individuales o discusiones de grupo, libros, artículos periodísticos, etc. pueden ser procesados mediante el tratamiento cuantitativo de lo cualitativo.

Este enfoque no es nuevo en la investigación de mercado. El procedimiento interpretativo estándar que se da, tanto de las preguntas abiertas como del análisis de contenido, comprende: reducción de los datos, selección de palabras claves, agrupamientos de frases en dimensiones, edición de categorías exhaustivas, codificación de categorías. Pero el análisis se transforma en una cuantificación de códigos numéricos, el recuento de códigos y la obtención de distribuciones de frecuencias; independientemente de la estructura y significación del contenido de las categorías.

El procedimiento tradicional de la cuantificación de datos cualitativos es la categorización, la codificación y la tabulación. De este modo el dato textual se reduce a un tratamiento y análisis de datos numéricos. Interesa más la frecuencia de los códigos que el propio contenido de las categorías.

Responde esta encuesta sobre consumo de redes sociales. Nos ayudará a brindarte mejor información.

¿Usas sitios de redes sociales para encontrar información académica o laboral?*

¿Usas sitios de redes sociales para encontrar información académica o laboral?*

¿Qué sitios de redes sociales utilizas para investigación académica o laboral*

¿Qué sitios de redes sociales utilizas para investigación académica o laboral*

Puedes seleccionar las opciones que quieras.

Que tipo de dispositivo usas al utilizar redes sociales*

Que tipo de dispositivo usas al utilizar redes sociales*

¿Cuántas cuentas de redes sociales tienes?*

¿Cuántas cuentas de redes sociales tienes?*

¿Cuántas horas a la semana le dedicas a las redes sociales?*

¿Cuántas horas a la semana le dedicas a las redes sociales?*

El enfoque lexicométrico y la estadística textual

Los enfoques lexicométricos o de la estadística textual están apoyados en las técnicas estadísticas desarrolladas por la Escuela Francesa de Análisis de Datos (Analyse des Données), (Benzécri, J. P. 1973, 1976).

El Análisis Estadístico de Datos Textuales (ADT) se refiere a procedimientos que implican contar las ocurrencias de las unidades verbales básicas (generalmente palabras) y operar algún tipo de análisis estadístico a partir de los resultados de tales recuentos. Se recurre a la cuantificación de los textos desde el primer momento, sin que medien operaciones de codificación previas.

El desarrollo de las técnicas de la estadística textual ha hecho que el análisis estadístico de textos se haya constituido en una herramienta interdisciplinar, integrada por: la estadística, el análisis del discurso, la lingüística, la informática, el procesamiento de encuestas, la investigación documental; y es cada vez más utilizada en diversos campos de las ciencias sociales: historia, política, economía, sociología, psicología, etc. Y específicamente en el análisis de los discursos sociales en la investigación del consumidor, del ciudadano, y en general, del sujeto mediático.

Las técnicas de análisis de datos desarrolladas a partir de las aportaciones de Jean Paúl Benzécri han permitido el análisis de grandes matrices de datos, aplicación del Análisis Factorial a tablas de contingencia de n (filas) x p (columnas) a partir grandes matrices de datos extendidas y la visualización de los resultados en un mapa perceptual.

METODOLOGÍA DEL ANÁLISIS DE DATOS TEXUALES

ANÁLISIS ESTADÍSTICO DE DATOS TEXUTALES (ADT)

Elaboración de documentos lexicométricos

  • Definición de los procedimientos asociados al data collection y data cleaning para el registro apropiado de los datos textuales. En primer lugar, se procede a la edición del corpus (componentes del corpus: narraciones, artículos periodísticos, informes, desgrabaciones de entrevistas y grupos, respuestas libres a preguntas abiertas, y variables sociodemográficas, socioeconómicas, actitudinales, que tipifican o segmentan las entrevistas o grupos, variables que actúan como predictores – variable independiente- , del criterio -variable dependiente-).
  • Estudio de las unidades estadísticas (formas, lemas, segmentos) que los algoritmos del análisis textual reconocen en los datos recolectados e identificación de las frases estadísticamente significativas. La elaboración de documentos lexicométricos implica un segundo paso de segmentación del texto en unidades. La segmentación del corpus textual implica diferenciar las unidades elementales: la forma gráfica (una secuencia de letras comprendidas entre dos espacios), el lema (todos los vocablos que cuentan con una misma raíz y con significado equivalente, es decir, una familia de palabras), los segmentos repetidos (una secuencia de dos o más palabras que aparecen más de una vez en un corpus de datos textuales), los cuasisegmentos (palabras que aparecen en una determinada secuencia pero que presentan alguna diferencia en el género o número).
  • Estudio de la riqueza de vocabulario: frecuencia de segmentos repetidos. Una vez segmentados los textos, el tercer paso, consiste en la construcción del vocabulario del texto. Este se presenta en una tabla de orden lexicométrico donde se muestra el número identificatorio de cada palabra, la palabra del glosario del corpus, la frecuencia de aparición y la longitud de la unidad medida en número de caracteres.
  • Análisis multivariado de datos textuales. El cuarto paso es la aplicación del Análisis Factorial de Correspondencias (AFC), sobre las tablas lexicográficas o la Clasificación Automática (Clasificación jerárquica ascendente) de las formas lexicales y textos.
  • Identificación de respuestas y/o frases modales combinando los resultados del análisis textual con variables sociodemográficas y actitudinales, se obtiene una Tipología de individuos o grupos a partir de respuestas y de textos.
  • Visualización de los resultados del Análisis multivariado. Representación de posicionamiento del corpus lexicográfico mediante Mapas preceptúales.
  • Análisis discriminante textual. Predicción de las variables objeto del estudio (opiniones, actitudes, predisposiciones, perfil de imagen, etc.) a partir del texto.

La estadística textual en el Paquete SPAD.T

El paquete de programas SPAD.T (Système Portable pour L’Analyse des Donees Textuelle) está diseñado específicamente para llevar a cabo análisis estadístico de datos textuales. De entre el software existente en el mercado, creemos que este paquete informático es el producto más completo y cuenta con más difusión entre los aplicadores del análisis estadístico textual (ADT).
Los pasos operativos del procesamiento de datos de textos son los siguientes:

  • El procesamiento de datos textuales se realiza mediante el ingreso de los datos textuales en soporte magnéticos (diskettes o CD-ROMs) con formato .doc o .txt (mediante procesadores de textos tipo MS Word).
  • Los archivos tienen una edición previa (revisión y corrección) según instrucciones precisas del Director de Proyectos de ADT.
  • Las desgrabaciones de los ‘verbatin’ de las discusiones grupales o de los registros de las entrevistas individuales son transcripciones textuales de los párrafos más significativos de las intervenciones de los participantes de los ‘focus groups’ o de los entrevistados individuales.
  • Las Guías de Pautas para los grupos o las entrevistas está confeccionada de modo tal que puedan ser numéricamente identificadas cada pauta de indagación de manera que en la desgrabación de los principales emergentes grupales o individuales quede perfectamente identificada cada pauta.
  • El Director de Proyecto coordina con el área de Procesamiento de datos cualitativos, a) los ítems de las Guías de Pautas y b) los principales criterios de organización de los discursos a los efectos de conceptuar mejor la identificación de los factores que arroje el Análisis Factorial de Correspondencia y facilitar su visualización en los Mapas de Posicionamiento.
  • A partir de los outputs del SPAD-T (simplemente SPAD), tanto de tablas como de gráficos de mapas de posicionamiento, se realiza el análisis de los datos en función de los objetivos de la investigación a los efectos de la producción de toda la información hallada, en el informe final

ANÁLISIS CUALITATIVO DE DATOS TEXTUALES

Existen otros programas que facilitan la tarea de ingreso, organización y análisis de datos textuales pero que no utilizan procedimientos estadísticos multivariados de minería de datos (DataMining), como SPAD-T, STATISTICA Text Miner, DB2 Intelligent Miner for Text, etc.

Uno de los más conocidos es el programa QSR NUD*IST (Non Numerical Unstructed Data Indexing Searching and Theorizing).

QSR NUD*IST NVivo Nvivo es un software para procesamiento de datos cualitativos incluyendo textos, imágenes, sonidos y video. Permite codificar, recuperar, anotar, y buscar textos. No tiene unidades textuales mínimas predefinidas. El analista puede codificar de a un carácter si lo desea. Acepta texto enriquecido (en formato RTF) con diferentes tipos, tamaños y colores de letras. Los documentos primarios se pueden vincular mediante hipervínculos entre sí y con memos así como con Data Bites (archivos de imagen, audio, video, hojas de cálculo, bases de datos, gráficos, etc.) para visualizar los cuales se requiere del respectivo visualizador externo. Genera informes en formato ASCII, en RTF o en HTML.

Los memos son documentos por derecho propio, por lo que también pueden ser editados, codificados y vinculados como los documentos primarios. Se puede codificar mediante la técnica de arrastrar y soltar. También desde la barra de codificación rápida, donde se hallan los códigos más recientemente utilizados. Permite crear nuevos códigos (nodos) simplemente cliqueando sobre una palabra en el documento primario. Puede mostrar los códigos aplicados a un texto como una serie de corchetes marginales de diferentes colores que se desplazan junto con el texto. Permite precodificar automáticamente los documentos en base a la estructuración del mismo en secciones, subsecciones y encabezados.

Puede definir conjuntos de documentos (sets) arrastrándolos, asignarles propiedades y tratarlos en conjunto.

Realiza búsquedas textuales de cadenas de caracteres y de patrones de caracteres, así como de los pasajes codificados según una serie amplia de operadores. Codifica automáticamente los resultados.
Incorpora un Modelizador y un Explorador de Modelos, que permite elaborar representaciones gráficas a todo color de las relaciones entre los datos y nuestras ideas. Pueden realizarse incluso modelos de las relaciones entre diferentes modelos. Se puede pasar inmediatamente del gráfico a cualquiera de los objetos que lo conforman, hasta llegar al texto del documento primario o a nuestras propias anotaciones.

Permite imprimir informes de todos los objetos en archivos ASCII o RTF y guardar o imprimir los modelos como imágenes de mapa de bits. Genera tablas con diferente tipo de información cuantitativa exportables a SPSS para su posterior procesamiento estadístico y puede importar datos desde SPSS o de cualquier otro programa que utilice tablas.

Se puede exportar un nodo o un grupo de ellos a Decision Explorer para someterlo a un ulterior análisis.

Tiene herramientas para facilitar el trabajo en equipo y en red, manejando contraseñas y niveles de acceso.

Puede generar copias auto ejecutables de sólo lectura para compartir sus datos de forma segura con terceros evitando que sean modificados sin autorización.

Para ver una presentación en PowerPoint sobre NUD*IST puede visitar: http://www.analisiscualitativo.com.ar/n4index.htm

Otro programa de análisis de cualitativos de datos textuales, a modo de ejemplo es, ATLAS/ti-Análisis Cualitativo de Datos Textuales:

Atlas/ti pertenece a la familia de los programas para Investigación cualitativa o
de análisis cualitativo de datos (en la que encontraremos también a NUD*IST, entre varias decenas más). En los últimos años han empezado a ser utilizados en distintas disciplinas: sociología, antropología, psicología, pedagogía.

Si bien existen base de datos documentales -sistemas de gestión de bases de datos relacionales- tales como Micro ISIS, o la última versión Win ISIS, desarrollados por la UNESCO.

ATRLAS/ti es algo más que el almacenaje de datos y el fácil acceso posterior a ellos. En el caso de Atlas/ti, la localización y recuperación de los datos tiene lugar sin problemas. Pero dispone de la ventaja añadida de que facilita toda una serie de herramientas para tejer relaciones entre los más variados elementos de datos, para hacer explícitas las interpretaciones y para poder, en determinado momento «llamar», a todos los elementos que pueden apoyar tal o cual argumento o conclusión. Esto último puede ser de especial valor cuando llega el momento de redactar, de comunicar a otros los resultados.

Tanto los datos originales como las relaciones que se crean entre ellos constituyen conocimiento. Aquí se considera conocimiento, en el contexto de una investigación, a la suma de nuestros datos en el momento en que a ellos se superpone una estructura de relaciones, de asociaciones, que va enfocada a un fin. Este fin puede ser un estudio para la mejora del servicio de atención al cliente de una empresa, una Tesis Doctoral, la gestión de un catálogo de piezas y componentes en que se tenga que atender a relaciones complejas, las pesquisas para la resolución de un crimen… o cualquier cuestión sobre la que pretendemos profundizar y ampliar lo que sabemos.

La apariencia de este programa se asemeja a un procesador de textos.

ATLAS/ti es una herramienta informática cuyo objetivo es facilitar el análisis cualitativo de, principalmente, grandes volúmenes de datos textuales.

Su foco de atención es el análisis cualitativo, no pretende automatizar el proceso de análisis, sino simplemente a ayudar al intérprete humano a agilizando considerablemente muchas de las actividades implicadas en el análisis de textos y la interpretación de los mismos.

Como por ejemplo la segmentación del texto en pasajes o citas, la codificación, la escritura de comentarios o anotaciones.
Todas estas actividades pertenecen a un Nivel Textual donde opera el programa. Pero se complementa con un Nivel Conceptual, como por ejemplo el establecimiento de relaciones entre los elementos y la elaboración de modelos mediante representación gráfica.

Para una presentación introductoria al programa de análisis cualitativo de datos textuales, puede visitarse el web site:

APÉNDICE ESTADÍSTICO-METODOLÓGICO

La aplicación del Análisis Factorial (AF) en el campo de ADT, se centra, principalmente, en el Análisis Factorial de Correspondencias (AFC), algoritmo estadístico desarrollado por Jean Pau Benzécri (1973, 1976).

Se trata de un método descriptivo (no explicativo) que se clasifica entre los métodos multivariables de interdependencia y permite visualizar los datos (que pueden ser cualitativos o cuantitativos) mediante la representación de una nube de puntos en un espacio de dimensiones reducidas, en función de las distancias geométricas entre los puntos.

El proceso de análisis se efectúa siguiendo cuatro etapas:

  1. Se parte de un conjunto de características de tipificación (atributos o items semánticos) de un producto y de otro conjunto de marcas de ese producto genérico. Las marcas se someten a la tipificación por parte de un grupo de individuos en función de las características tomadas bajo la forma de escalas semánticas.
  2. Tomando como base los valores dados a las diferentes semánticas para cada marca propuesta, se construye una matriz de entrada. En las filas se ubican las marcas evaluadas (Objeto= O j ), en las columnas los atributos o características (Criterios= C i ) y en las celdas o casillas, aparece la frecuencia de atribución ( n i j ) de las características a las marcas.
  3. El algoritmo de cálculo utilizado explica cada uno de los dos conjuntos (marcas y atributos) en relación con el otro, ya que existen relaciones simples entre los factores obtenidos, y consigue una representación gráfica que permite visualizar las relaciones de proximidad (mediante las distancias en la representación) de la siguiente forma:
    • Cada elemento del conjunto columna (marca) con los demás elementos de la columna.
    • Cada elemento del conjunto fila (atributos) con los demás elementos de la fila.
    • Cada elemento del conjunto fila (atributo) con cada elemento del conjunto columna (marca).
  4. Se ejecuta el análisis factorial de correspondencias (AFC), primero entre las líneas (atributos) y después, entre las columnas (marcas), conjugándose ambos análisis, ya que los datos son idénticos tanto si son leídos según las filas como si lo son según las columnas. Hay por lo tanto, una dualidad entre el análisis de las líneas y las columnas de la matriz de datos de entrada, de manera que el plano de mejor aproximación es el mismo en los dos casos. Y el centro de gravedad o, sobre todo, la inercia de los factores sacados de las líneas coincide con el centro de gravedad de los factores sacados de las columnas.

Como consecuencia de todo el proceso se obtiene un mapa de posicionamiento entre todos los atributos considerados en los dos conjuntos tratados (variables fila y variables columna).

El resultado es, pues, un solo conjunto homogéneo que incluyen todos los elementos de la matriz.

Se puede ver un caso de aplicación de ADT con SPAD-T en Moscoloni, N y Satriano, C. (2000)

Así pues, y como conclusión, de esta manera se puede obtener una representación sintética de los atributos de tipificación considerados y las marcas analizadas, en sus principales ejes de diferenciación.

La proyección en el plano de los puntos individuales que constituyen los atributos del producto permitirá interpretar la significación de los ejes factoriales obtenidos.

El AFC es una técnica de interdependencia recientemente desarrollada que facilita tanto la reducción dimensional de una clasificación de objetos (marcas, empresas, personas, palabras, frases, textos etc) sobre un conjunto de atributos y el mapa perceptual de objetos relativos a estos atributos.

Los investigadores se enfrentan constantemente a la necesidad de «cuantificar datos cualitativos» que encuentran en variables nominales. El AFC ajusta tanto los datos no métricos como los que presentan relaciones no lineales.

En su forma más básica, el AFC emplea una tabla de contingencia que es la tabulación cruzada de dos variables categóricas. A continuación transforma los datos no métricos en un nivel métrico y realiza una reducción dimensional y un mapa perceptual.

El AFC proporciona una representación multivariante de la interdependencia de datos no métricos que no es posible realizar con otros métodos multivariantes.

LINKOTECA SOBRE SOFTWARE REFERIDOS A ANÁLISIS CUALITATIVO Y ANÁLISIS ESTADÍSTICO DE DATOS TEXTUALES (ADT)

  • Site sobre softwares de ADT (Lista suministrada por la Lic. Ana Feldman, Buenos Aires, Argentina): TALTAC: www.taltac.it ; CORDIAL: www.synapse-fre.com ; otros softwares: LEXICO (Francia), INTEX, THEME EDITOR, ALCESTE de M. Reinert, STELLA (Motor de búsqueda en cuya base se usa la Teoría de los Objetos textuales), SATIM, HYPERBASE, ETIENE: [email protected]; SPHINX
  • Asociación Española de Metodología de las Ciencias del Comportatamiento > Software, Editoriales y Revistas:
  • Home Page de SPAD Versión 5.5.:
  • Editorial SCOLARI, Software para Análisis Cualitativos:
  • Sphinx Development UK. Programa de Análisis Cuanti y Cualitativos de datos numéricos y textuales: SphinxSurvey Versión 4.0: http://www.sphinxdevelopment.co.uk/Products_sphinx.htm
  • Antropología y Análisis de Datos Cualitativos, Pablo Gustavo Rodríguez, Home Page: http://www.analisiscualitativo.com.ar/ > Software para Análisis de Datos Cualitativos.
  • StatSoft, Inc. Programa de DataMining de Datos Textuales: STATISTICA Text Miner:
  • IBM, Inc. DB2 Intelligent Miner for Text:
  • ATLAS/ti: Análisis Cualitativo de Datos Textuales:
  • QSR-Qualitative Solution for Resercher, Inc. Software de análisis cualitativo: QSR NUD*IST NVivo Versión 2.0 (última versión de NUD*IST):
  • Presentación Diapositivas sobre QSR NUD*IST NVivo: http://www.analisiscualitativo.com.ar/n4index.htm

© Copyright 2003, by Rubén José Rodríguez

NOTA: Para compartir tus inquietudes respecto a estos conceptos clave y descubrir los recursos con que cuentas para aplicarlos en tu caso particular, visita:

BIBLIOGRAFÍA DE REFERENCIA

  1. Lebart, Ludovic, Morineau, Alain y Bécue, Mónica (1989): Système Portable pour l’Analyse des Données Textualles. SPAD-T. Manuel de l’utilisateur. CISIA, París, 1989.
  2. Lebart, Ludovic y Salem, André (1994) : Statistique Textuelle. Dunod, París, 1994.
  3. JADT90 (1990) : Actes de ‘Jornades Internacionals d’Anàlisi de Dades Textuals’, JADT90, Barcelona 1990, Servei de publicacions de la UPC. Bécue, Lebart, Rajadell ed.
  4. JADT93 (1993) : Actas de ‘Secondes Journées Internationales d’Analyse Statistique de Donnée Textuelles’, JADT93, Montpellier 1993, Telecom, París S.HJ. Anastex ed.
  5. Benzécri, Jean Paul (1988) : » Cualidad y cantidad en la tradición de los filósofos y en Análisis de Datos», Les Cahiers de l’Analyse des Données, XIII (I): 131-152. Traducción de Nora Moscoloni, IRICE-Instituto Rosario de Investigaciones en Ciencias de la Educación, 1993.
  6. Benzécri, Jean Paul (1973, 1976): L’Analyse des Données, Tome I : La Taxinomie, 1973 ; Tomo II : L’ Analyse des Correspondances, París, Dunod, 2de, Éd. 1976.
  7. Etxeberría, Juan, et. al. (1995): Análisis de Datos y Textos: Madrid, Editorial Ra-Ma, 1995.
  8. Lebart, Ludovic; Salem, André y Bécue, Mónica (2000): Análisis Estadístico de Textos: Editorial Milenio, Madrid, 2000.
  9. Bécue, Mónica (1991): Análisis de Datos Textuales, CISIA-, París, 1991
  10. Berelson, Bernard (1952): Content Analysis in communication research: New cork, III, Universite Press, Hafner Publications & Co, 1971
  11. Pecheux, Michel (1969): Hacia el Análisis Automático del Discurso: Madrid, Editorial Gredos, 1969
  12. Bardín, Lawrence (1977): El Análisis de Contenido: Madrid, Akal, 1986.
  13. Kientz, Albert (1971): Para Analizar los Mass Media. El Análisis de Contenido: Valencia, Fernando Torres Editor, 1976.
  14. Delgado, Juan Manuel y Gutierrez, Juan (1995): Métodos y Técnicas Cualitativas de Investigación en Ciencias Sociales: Madrid, Editorial Síntesis, 1998.
  15. Galindo, Cáceres (1998): Técnicas de investigación en Sociedad, Cultura y Comunicación: México, Addison Wsley Longman, 1999.
  16. Soler, Peré (1991): La investigación motivacional en Marketing y Publicidad: Ediciones Deusto, Bilbao, 1991.
  17. Moscoloni, Nora y Satriano Cecilia Raquel (2000): «Importancia del Análisis Textual como Herramienta para el Análisis del Discurso. Aplicación en una investigación acerca de los abandonos del tratamiento en pacientes drogodependientes», en Revista Electrónica ‘Cinta de Moebio’, nº 9, Noviembre 2000, Facultad de Ciencias Sociales, Universidad de Chile, en ; 24 pp.
  18. Moscoloni, Nora (2000): «Características del Análisis Multidimensional de Datos», ponencia en ‘Jornadas de Introducción al Análisis Multidimensional de Datos’, (25 de agosto de 2000), UNTREF-Universidad Nacional de Tres de Febrero, Argentina, Cuadernillo 1, Serie: Análisis Multidimensional de Datos, pp. 5-19.
  19. PIAD-Programa Interdisciplinario de Análisis de Datos, Análisis Multidimensional de Datos (AMD) y Análisis Inteligente de Datos (AID), Universidad Nacional de Rosario, Argentina:

Cita esta página

Rodríguez Rubén José. (2003, julio 10). Cómo analizar cuantitativamente datos cualitativos. Recuperado de https://www.gestiopolis.com/como-analizar-cuantitativamente-datos-cualitativos/
Rodríguez Rubén José. "Cómo analizar cuantitativamente datos cualitativos". gestiopolis. 10 julio 2003. Web. <https://www.gestiopolis.com/como-analizar-cuantitativamente-datos-cualitativos/>.
Rodríguez Rubén José. "Cómo analizar cuantitativamente datos cualitativos". gestiopolis. julio 10, 2003. Consultado el . https://www.gestiopolis.com/como-analizar-cuantitativamente-datos-cualitativos/.
Rodríguez Rubén José. Cómo analizar cuantitativamente datos cualitativos [en línea]. <https://www.gestiopolis.com/como-analizar-cuantitativamente-datos-cualitativos/> [Citado el ].
Copiar

Escrito por: