

Las técnicas de análisis de datos cualitativos aplicadas a investigación de mercado y de opinión pública, o a la investigación de las comunicaciones institucionales y de marketing, han aportado durante décadas valiosa información acerca de la estructura, dimensiones y significaciones de los discursos de los consumidores, usuarios, ciudadanos, o receptores de mass media, respectos de los comportamientos sociales, políticos o de compra de productos, imágenes de marcas corporativas, o de consumo de medios.
Ha sido y es una fase necesaria en la investigación de los problemas de comunicación, marketing u opinión pública que requieren de un estudio preliminar de tipo exploratorio-cualitativo. Antes de describir es necesario explorar.
La fase cualitativa de la investigación no estructurada cubre los siguientes objetivos generales:
Estos discursos -individuales o grupales- son datos cualitativos expresados en forma de cadenas verbales (‘string’ = cadena) o sintagmas lingüísticos.
Estos materiales (‘verbatim’) no solo pueden ser analizados, interpretados y modelizados desde marcos teóricos cualitativos (psicológicos, psicoanalíticos, psicosociales, antropológico culturales, lingüísticos, semiológicos o retóricos, etc.), sino que se pueden complementar con el uso de análisis estadístico en la investigación cualitativa.
Los datos registrados -impresos, manuscritos o desgrabados- en forma de notas tomadas durante una observación, respuestas libres a preguntas abiertas, transcripciones de entrevistas individuales o discusiones de grupo, libros, artículos periodísticos, etc. pueden ser procesados mediante el tratamiento cuantitativo de lo cualitativo.
Este enfoque no es nuevo en la investigación de mercado. El procedimiento interpretativo estándar que se da, tanto de las preguntas abiertas como del análisis de contenido, comprende: reducción de los datos, selección de palabras claves, agrupamientos de frases en dimensiones, edición de categorías exhaustivas, codificación de categorías. Pero el análisis se transforma en una cuantificación de códigos numéricos, el recuento de códigos y la obtención de distribuciones de frecuencias; independientemente de la estructura y significación del contenido de las categorías.
El procedimiento tradicional de la cuantificación de datos cualitativos es la categorización, la codificación y la tabulación. De este modo el dato textual se reduce a un tratamiento y análisis de datos numéricos. Interesa más la frecuencia de los códigos que el propio contenido de las categorías.
El enfoque lexicométrico y la estadística textual
Los enfoques lexicométricos o de la estadística textual están apoyados en las técnicas estadísticas desarrolladas por la Escuela Francesa de Análisis de Datos (Analyse des Données), (Benzécri, J. P. 1973, 1976).
El Análisis Estadístico de Datos Textuales (ADT) se refiere a procedimientos que implican contar las ocurrencias de las unidades verbales básicas (generalmente palabras) y operar algún tipo de análisis estadístico a partir de los resultados de tales recuentos. Se recurre a la cuantificación de los textos desde el primer momento, sin que medien operaciones de codificación previas.
El desarrollo de las técnicas de la estadística textual ha hecho que el análisis estadístico de textos se haya constituido en una herramienta interdisciplinar, integrada por: la estadística, el análisis del discurso, la lingüística, la informática, el procesamiento de encuestas, la investigación documental; y es cada vez más utilizada en diversos campos de las ciencias sociales: historia, política, economía, sociología, psicología, etc. Y específicamente en el análisis de los discursos sociales en la investigación del consumidor, del ciudadano, y en general, del sujeto mediático.
Las técnicas de análisis de datos desarrolladas a partir de las aportaciones de Jean Paúl Benzécri han permitido el análisis de grandes matrices de datos, aplicación del Análisis Factorial a tablas de contingencia de n (filas) x p (columnas) a partir grandes matrices de datos extendidas y la visualización de los resultados en un mapa perceptual.
Elaboración de documentos lexicométricos
El paquete de programas SPAD.T (Système Portable pour L’Analyse des Donees Textuelle) está diseñado específicamente para llevar a cabo análisis estadístico de datos textuales. De entre el software existente en el mercado, creemos que este paquete informático es el producto más completo y cuenta con más difusión entre los aplicadores del análisis estadístico textual (ADT).
Los pasos operativos del procesamiento de datos de textos son los siguientes:
Existen otros programas que facilitan la tarea de ingreso, organización y análisis de datos textuales pero que no utilizan procedimientos estadísticos multivariados de minería de datos (DataMining), como SPAD-T, STATISTICA Text Miner, DB2 Intelligent Miner for Text, etc.
Uno de los más conocidos es el programa QSR NUD*IST (Non Numerical Unstructed Data Indexing Searching and Theorizing).
QSR NUD*IST NVivo Nvivo es un software para procesamiento de datos cualitativos incluyendo textos, imágenes, sonidos y video. Permite codificar, recuperar, anotar, y buscar textos. No tiene unidades textuales mínimas predefinidas. El analista puede codificar de a un carácter si lo desea. Acepta texto enriquecido (en formato RTF) con diferentes tipos, tamaños y colores de letras. Los documentos primarios se pueden vincular mediante hipervínculos entre sí y con memos así como con Data Bites (archivos de imagen, audio, video, hojas de cálculo, bases de datos, gráficos, etc.) para visualizar los cuales se requiere del respectivo visualizador externo. Genera informes en formato ASCII, en RTF o en HTML.
Los memos son documentos por derecho propio, por lo que también pueden ser editados, codificados y vinculados como los documentos primarios. Se puede codificar mediante la técnica de arrastrar y soltar. También desde la barra de codificación rápida, donde se hallan los códigos más recientemente utilizados. Permite crear nuevos códigos (nodos) simplemente cliqueando sobre una palabra en el documento primario. Puede mostrar los códigos aplicados a un texto como una serie de corchetes marginales de diferentes colores que se desplazan junto con el texto. Permite precodificar automáticamente los documentos en base a la estructuración del mismo en secciones, subsecciones y encabezados.
Puede definir conjuntos de documentos (sets) arrastrándolos, asignarles propiedades y tratarlos en conjunto.
Realiza búsquedas textuales de cadenas de caracteres y de patrones de caracteres, así como de los pasajes codificados según una serie amplia de operadores. Codifica automáticamente los resultados.
Incorpora un Modelizador y un Explorador de Modelos, que permite elaborar representaciones gráficas a todo color de las relaciones entre los datos y nuestras ideas. Pueden realizarse incluso modelos de las relaciones entre diferentes modelos. Se puede pasar inmediatamente del gráfico a cualquiera de los objetos que lo conforman, hasta llegar al texto del documento primario o a nuestras propias anotaciones.
Permite imprimir informes de todos los objetos en archivos ASCII o RTF y guardar o imprimir los modelos como imágenes de mapa de bits. Genera tablas con diferente tipo de información cuantitativa exportables a SPSS para su posterior procesamiento estadístico y puede importar datos desde SPSS o de cualquier otro programa que utilice tablas.
Se puede exportar un nodo o un grupo de ellos a Decision Explorer para someterlo a un ulterior análisis.
Tiene herramientas para facilitar el trabajo en equipo y en red, manejando contraseñas y niveles de acceso.
Puede generar copias auto ejecutables de sólo lectura para compartir sus datos de forma segura con terceros evitando que sean modificados sin autorización.
Para ver una presentación en PowerPoint sobre NUD*IST puede visitar: http://www.analisiscualitativo.com.ar/n4index.htm
Otro programa de análisis de cualitativos de datos textuales, a modo de ejemplo es, ATLAS/ti-Análisis Cualitativo de Datos Textuales:
Atlas/ti pertenece a la familia de los programas para Investigación cualitativa o
de análisis cualitativo de datos (en la que encontraremos también a NUD*IST, entre varias decenas más). En los últimos años han empezado a ser utilizados en distintas disciplinas: sociología, antropología, psicología, pedagogía.
Si bien existen base de datos documentales -sistemas de gestión de bases de datos relacionales- tales como Micro ISIS, o la última versión Win ISIS, desarrollados por la UNESCO.
ATRLAS/ti es algo más que el almacenaje de datos y el fácil acceso posterior a ellos. En el caso de Atlas/ti, la localización y recuperación de los datos tiene lugar sin problemas. Pero dispone de la ventaja añadida de que facilita toda una serie de herramientas para tejer relaciones entre los más variados elementos de datos, para hacer explícitas las interpretaciones y para poder, en determinado momento “llamar”, a todos los elementos que pueden apoyar tal o cual argumento o conclusión. Esto último puede ser de especial valor cuando llega el momento de redactar, de comunicar a otros los resultados.
Tanto los datos originales como las relaciones que se crean entre ellos constituyen conocimiento. Aquí se considera conocimiento, en el contexto de una investigación, a la suma de nuestros datos en el momento en que a ellos se superpone una estructura de relaciones, de asociaciones, que va enfocada a un fin. Este fin puede ser un estudio para la mejora del servicio de atención al cliente de una empresa, una Tesis Doctoral, la gestión de un catálogo de piezas y componentes en que se tenga que atender a relaciones complejas, las pesquisas para la resolución de un crimen… o cualquier cuestión sobre la que pretendemos profundizar y ampliar lo que sabemos.
La apariencia de este programa se asemeja a un procesador de textos.
ATLAS/ti es una herramienta informática cuyo objetivo es facilitar el análisis cualitativo de, principalmente, grandes volúmenes de datos textuales.
Su foco de atención es el análisis cualitativo, no pretende automatizar el proceso de análisis, sino simplemente a ayudar al intérprete humano a agilizando considerablemente muchas de las actividades implicadas en el análisis de textos y la interpretación de los mismos.
Como por ejemplo la segmentación del texto en pasajes o citas, la codificación, la escritura de comentarios o anotaciones.
Todas estas actividades pertenecen a un Nivel Textual donde opera el programa. Pero se complementa con un Nivel Conceptual, como por ejemplo el establecimiento de relaciones entre los elementos y la elaboración de modelos mediante representación gráfica.
Para una presentación introductoria al programa de análisis cualitativo de datos textuales, puede visitarse el web site:
La aplicación del Análisis Factorial (AF) en el campo de ADT, se centra, principalmente, en el Análisis Factorial de Correspondencias (AFC), algoritmo estadístico desarrollado por Jean Pau Benzécri (1973, 1976).
Se trata de un método descriptivo (no explicativo) que se clasifica entre los métodos multivariables de interdependencia y permite visualizar los datos (que pueden ser cualitativos o cuantitativos) mediante la representación de una nube de puntos en un espacio de dimensiones reducidas, en función de las distancias geométricas entre los puntos.
El proceso de análisis se efectúa siguiendo cuatro etapas:
Como consecuencia de todo el proceso se obtiene un mapa de posicionamiento entre todos los atributos considerados en los dos conjuntos tratados (variables fila y variables columna).
El resultado es, pues, un solo conjunto homogéneo que incluyen todos los elementos de la matriz.
Se puede ver un caso de aplicación de ADT con SPAD-T en Moscoloni, N y Satriano, C. (2000)
Así pues, y como conclusión, de esta manera se puede obtener una representación sintética de los atributos de tipificación considerados y las marcas analizadas, en sus principales ejes de diferenciación.
La proyección en el plano de los puntos individuales que constituyen los atributos del producto permitirá interpretar la significación de los ejes factoriales obtenidos.
El AFC es una técnica de interdependencia recientemente desarrollada que facilita tanto la reducción dimensional de una clasificación de objetos (marcas, empresas, personas, palabras, frases, textos etc) sobre un conjunto de atributos y el mapa perceptual de objetos relativos a estos atributos.
Los investigadores se enfrentan constantemente a la necesidad de “cuantificar datos cualitativos” que encuentran en variables nominales. El AFC ajusta tanto los datos no métricos como los que presentan relaciones no lineales.
En su forma más básica, el AFC emplea una tabla de contingencia que es la tabulación cruzada de dos variables categóricas. A continuación transforma los datos no métricos en un nivel métrico y realiza una reducción dimensional y un mapa perceptual.
El AFC proporciona una representación multivariante de la interdependencia de datos no métricos que no es posible realizar con otros métodos multivariantes.
LINKOTECA SOBRE SOFTWARE REFERIDOS A ANÁLISIS CUALITATIVO Y ANÁLISIS ESTADÍSTICO DE DATOS TEXTUALES (ADT)
© Copyright 2003, by Rubén José Rodríguez
NOTA: Para compartir tus inquietudes respecto a estos conceptos clave y descubrir los recursos con que cuentas para aplicarlos en tu caso particular, visita: