Módulo 7: Análisis e Interpretación de los Datos
Contenido 7.1 Medición La medición es un tema importante en la investigación empresarial. Debemos medir correctamente los conceptos que estamos examinando. De lo contrario, nuestras interpretaciones y conclusiones no serán precisas. La medición implica cuantificar los resultados de las variables mediante la asignación de números a los resultados de acuerdo con las reglas preestablecidas. Los gerentes miden muchos aspectos del negocio, incluido el desempeño y la satisfacción de los empleados, la motivación, la rotación y las ganancias. El proceso de medición implica especificar las variables (indicadores) que sirven como representantes de los conceptos. Las variables que son de naturaleza relativamente concreta, como el género y la edad, son fáciles de definir y medir. Pero muchos conceptos son mucho menos precisos y más difíciles de medir con precisión. Un concepto es algo abstracto que no se puede medir o una idea formada por la percepción de los fenómenos. La idea es una combinación de una serie de características similares del concepto. Las características son las variables que, colectivamente, definen el concepto y hacen posible su medición. Juntos miden indirectamente el concepto, que también se conoce como un constructo. Para las investigaciones cualitativas, hay diferentes tipos de variables estadísticas que para las investigaciones cuantitativas. 7.2 Escalas Una escala es una sucesión ordenada por grado o intensidad, de cosas distintas, pero de la misma especie. Para medir los fenómenos comerciales, se usan cuatro tipos de escalas: nominal, ordinal, intervalo y razón. Las escalas nominales y ordinales son variables no métricas. Las escalas de intervalo y relación son herramientas de medición métrica. El análisis de datos para variables no métricas es limitado. Para datos nominales, solo se pueden calcular recuentos, porcentajes y el modo. Para datos ordinales, podemos calcular los percentiles, la mediana y el rango. El análisis de datos es mucho más extenso para las variables métricas. A continuación, presentamos ejemplos de Estadística Descriptiva para cada Tipo de Escala. Nominal: Moda, Frecuencia, Porcentaje. Ordinal: Mediana, Rango, Percentil. Intervalo: Media, Desviación Estándar, Varianza. Razón: Todas las operaciones aritméticas.
7.3 Confiabilidad Y Validez Antes de usar una escala de elementos múltiples, el investigador debe realizar ciertas verificaciones esenciales para asegurarse de que los elementos seleccionados para representar y medir un concepto lo hagan de manera precisa y consistente. La precisión se asocia con el término \"validez\", mientras que la coherencia se asocia con el término \"confiabilidad\". 7.4 Análisis Cualitativo Para comprender el análisis de datos cualitativos, es necesario comprender primero la investigación cualitativa. La investigación cualitativa está orientada al descubrimiento, y los analistas utilizan los datos recopilados para generar ideas y teorías, por lo que se basa en un razonamiento inductivo. El razonamiento inductivo es un tipo de pensamiento que implica identificar patrones en un conjunto de datos para llegar a conclusiones y construir teorías. Un enfoque de investigación cualitativa es la forma más apropiada y, de hecho, la única forma de lograr algunos objetivos de investigación. Las situaciones en las que es probable que la investigación cualitativa sea el método preferido incluyen (1) cuando se sabe poco sobre un problema u oportunidad de investigación, (2) donde la investigación previa solo explica parcial o incompletamente la pregunta de investigación, (3) cuando el conocimiento actual involucra subconsciente , material psicológico o cultural al que no se puede acceder mediante encuestas y experimentos, y (4) si el objetivo principal de la investigación es proponer nuevas ideas e hipótesis que eventualmente puedan probarse con investigación cuantitativa. Cuando los investigadores utilizan un enfoque inductivo, intentan construir su teoría o marco conceptual a partir de los datos que recopilan. La teoría construida a través del razonamiento inductivo se llama teoría fundamentada. 7.5 Teoría Fundamentada (Grounded Theory) Toda investigación cualitativa se basa en el sentido de que la investigación fundamentada proporciona la base para el razonamiento inductivo y el desarrollo de la teoría. El objetivo general de la investigación de la teoría fundamentada es construir teorías para comprender contextos y fenómenos específicos. La teoría fundamentada puede crear, elaborar e incluso validar la teoría, pero el énfasis está generalmente en la creación y elaboración de la teoría. La teoría fundamentada es una metodología sistemática en las ciencias sociales que implica la construcción de teorías a
través de la recopilación metódica y el análisis de datos. Esta metodología de investigación utiliza el razonamiento inductivo, en contraste con el modelo hipotético-deductivo del método científico. 7.6 Posturas Interpretativas El enfoque del investigador para recopilar y analizar datos cualitativos generalmente se basa en una postura interpretativas. Las cuatro posturas interpretativas son positivismo, postpositivista, interpretativo y crítico. El positivismo es una filosofía de investigación que ve la realidad como algo que se puede determinar objetivamente y describir a través de la investigación. Los postpositivistas creen que existe una realidad objetiva, pero reconocen que es difícil y las lentes psicológicas filtran la interpretación. El interpretatismo afirma que todo acceso a la realidad está socialmente construido. Los investigadores interpretativos intentan comprender los fenómenos a través de los significados que les asignan los individuos en lugar de buscar una realidad objetiva y sin prejuicios. Los enfoques críticos buscan activamente cambiar las circunstancias sociales y económicas. Los investigadores en el paradigma crítico buscan emprender investigaciones que sean \"emancipatorias\". Se busca el conocimiento crítico para permitir a las personas liberarse, a través de la autorreflexión, de todas las formas de dominación. 7.7 Gestión Cualitativa de Datos Los datos cualitativos generalmente se originan en dos fuentes: los datos generados en el campo y los datos encontrados. Los datos generados en el campo generalmente provienen de entrevistas o grupos focales en el campo y consisten en texto o datos visuales. En contraste, los datos encontrados provienen de fuentes existentes como redes sociales, artículos de periódicos, discursos, diarios, anuncios y registros de audio y video. La gestión de datos cualitativos presenta diferentes desafíos según la fuente de los datos cualitativos. Los datos generados en el campo deben ser transcrito a un formato de texto para permitir el análisis cualitativo. Los datos encontrados deben seleccionarse, categorizarse, etiquetarse y almacenarse. El tema de lo que realmente se analiza en la investigación cualitativa puede ser difícil para los datos encontrados porque la sociedad está produciendo tantos datos y las técnicas de búsqueda han mejorado tanto que a menudo es imposible incluir incluso una pequeña porción de lo que se genera sobre un tema en particular. Se deben utilizar técnicas y términos de búsqueda para elegir los datos más relevantes, y si todavía hay demasiada información, se debe utilizar el muestreo. La gestión de
datos en la investigación cualitativa es importante porque las decisiones tomadas al principio del proceso de investigación cualitativa sobre cómo gestionar los datos pueden tener consecuencias más adelante en el estudio. 7.8 Codificación Para ayudarlos a realizar análisis cualitativos, los investigadores a menudo usan la codificación. La codificación es el proceso de asignar valores numéricos o nombres significativos que reducen los datos de una gran cantidad de texto indiferenciado a un pequeño número de fragmentos relevantes y representativos. El propósito de la codificación es permitir que el investigador simplifique y se centre en las características significativas de los datos. Los datos de codificación comienzan con la selección de unidades de codificación. Los ejemplos de unidades de codificación incluyen palabras, frases, oraciones, párrafos, imágenes, gráficos y fotografías. 7.9 Proceso de análisis de datos cualitativos Para aclarar el proceso de análisis de datos cualitativos, es útil revisar el marco desarrollado por Miles y Huberman que incluyen la recopilación de datos, la reducción de datos, la visualización de datos, la obtención de conclusiones y la verificación de hallazgos. Cuando se recopilan datos cualitativos, es necesario organizarlos y reducirlos. La reducción de datos implica seleccionar, simplificar y transformar los datos para que sean más manejables y comprensibles. El proceso de visualización de datos ayuda a los investigadores cualitativos a organizar la información y verla de una manera que les permita identificar enlaces y desarrollar explicaciones que relacionen sus hallazgos con la teoría existente. Durante el proceso de visualización de datos, es probable que se extraigan temas o patrones de orden superior de los datos. El proceso de análisis de datos cualitativos es identificar, examinar, comparar e interpretar patrones y temas. El análisis cualitativo es un proceso iterativo en el que los datos se revisan regularmente a medida que surgen nuevas preguntas y conexiones o cuando surge la comprensión general de la situación de la investigación. De hecho, en la investigación cualitativa, la recopilación y el análisis de datos son a menudo. Los pasos específicos en la investigación cualitativa incluyen la recopilación de datos, la reducción de datos, la visualización de datos, la obtención de conclusiones y la verificación de los resultados.
7.10 Credibilidad y Triangulación Surgen preguntas sobre la validez de los hallazgos cualitativos. Los investigadores cualitativos a menudo usan los términos \"credibilidad\" o \"confiabilidad\" en lugar de validez, pero los conceptos son similares. En la investigación cuantitativa, los métodos para evaluar la validez implican insertar números en las fórmulas y calcular un índice numérico. Pero debido a que la investigación cualitativa implica trabajar con texto e imágenes, los investigadores no pueden simplemente calcular un índice de validez para un estudio en particular. Quizás el concepto más importante para establecer credibilidad en la investigación cualitativa es la triangulación. Existen cuatro tipos de triangulación en la investigación cualitativa: investigador, datos, método y teoría. La triangulación del investigador implica el análisis e interpretación de múltiples investigadores en el mismo equipo, particularmente si provienen de diferentes orígenes. La triangulación de datos requiere recopilar datos de varias fuentes diferentes o en diferentes momentos. La triangulación de métodos implica llevar a cabo el proyecto de investigación utilizando varios métodos diferentes y comparar los hallazgos, incluidos a veces los hallazgos de enfoques cualitativos y cuantitativos. Finalmente, la triangulación de la teoría está utilizando múltiples teorías y perspectivas para interpretar y explicar los datos. Los investigadores cualitativos no pueden usar todos los tipos de triangulación en un solo proyecto de investigación, pero deben ser conscientes de ellos y pensar en las oportunidades para construir salvaguardas donde un proyecto sería débil. 7.11 Elementos clave del análisis cualitativo La palabra cualitativa implica un énfasis en las cualidades de las entidades y en los procesos y significados que no se examinan o miden experimentalmente (si se miden) en términos de cantidad, cantidad, intensidad o frecuencia. Los investigadores cualitativos enfatizan la naturaleza socialmente construida de la realidad, la relación íntima entre el investigador y lo que se estudia, y las restricciones situacionales que dan forma a la investigación. A continuación, se presentan los elementos clave que definen el análisis de un estudio de investigación cualitativa y las formas aplicadas que cada uno toma en la investigación de un problema de investigación. Orientación de caso única: supone que cada caso es especial y único; el primer nivel de análisis es ser fiel, respetar y capturar los detalles de los casos individuales que se estudian; El análisis de casos cruzados se deriva y depende de la calidad de los estudios de casos individuales.
Análisis inductivo: inmersión en los detalles y detalles de los datos para descubrir patrones, temas e interrelaciones importantes; comienza explorando, luego confirmando los resultados, guiados por principios analíticos en lugar de reglas. Perspectiva holística: todo el fenómeno en estudio se entiende como un sistema complejo que es más que la suma de sus partes; la atención se centra en interdependencias complejas y dinámicas del sistema que no pueden reducirse de manera significativa a relaciones lineales, de causa y efecto y / o algunas variables discretas. Sensibilidad al contexto: coloca los hallazgos en un contexto social, histórico y temporal; El investigador es cuidadoso [incluso dudoso de] la posibilidad o el significado de las generalizaciones a través del tiempo y el espacio; enfatiza el cuidadoso análisis comparativo de estudios de caso y los patrones de extrapolación para una posible transferibilidad y adaptación en nuevos entornos. Voz, perspectiva y reflexividad: el metodólogo cualitativo posee y reflexiona sobre su propia voz y perspectiva; una voz creíble transmite autenticidad y confiabilidad; Como la objetividad completa es imposible y la subjetividad pura socava la credibilidad, el enfoque del investigador refleja un equilibrio entre comprender y representar el mundo auténticamente en toda su complejidad y ser auto analítico, políticamente consciente y reflexivo en la conciencia. 7.12 Análisis Cuantitativo Muchos proyectos de investigación tienen datos que pueden cuantificarse para permitir que se respondan las preguntas de investigación. Los datos cuantitativos consisten en mediciones en las que los números se utilizan para representar directamente las propiedades de los fenómenos. Para ser útil, los datos deben ser analizados e interpretados. El análisis de datos en la investigación cuantitativa implica los siguientes pasos: (1) revisar el marco conceptual y las relaciones propuestas, (2) preparar los datos para el análisis, (3) determinar si la investigación implica un análisis descriptivo o una prueba de hipótesis, (4) realizar un análisis y (5) evalúan los hallazgos para evaluar si son significativos. 7.13 Preparar los Datos Una de las tareas principales del investigador es convertir los datos en conocimiento. Con la investigación cuantitativa, esto significa examinar los datos para identificar y confirmar las
relaciones. Antes de que los datos cuantitativos puedan analizarse, deben editarse, codificarse. Al analizar el análisis cuantitativo, debemos Después de que se hayan recopilado los datos y antes de analizarlos, el investigador debe examinarlos para garantizar su validez. Las respuestas en blanco, denominadas datos faltantes, deben tratarse de alguna manera. Si las preguntas fueron precodificadas, entonces simplemente pueden ingresarse en una base de datos. Si no fueron precodificados, entonces se debe desarrollar un sistema para que puedan ingresarse en la base de datos. Las tareas típicas involucradas son la edición, el manejo de datos faltantes, la codificación, la transformación y el ingreso de datos. para comprender más fácilmente sus datos. Añaden no solo claridad sino también impacto a los informes de investigación. Antes de que se puedan usar los datos de una encuesta, se deben editar. Esto significa que los datos deben ser inspeccionados para verificar su integridad y consistencia. Los datos faltantes pueden afectar la validez de los hallazgos de un investigador y, por lo tanto, deben identificarse y resolverse los problemas. La falta de datos generalmente surge debido a problemas de recopilación o ingreso de datos. El investigador debe evaluar qué tan extendido es el problema de datos faltantes y si es sistemático o aleatorio. Las respuestas deben codificarse antes o después de que se recopilen los datos, pero es mejor codificarlo con anticipación. La codificación significa que se asigna un número a una respuesta particular para que la respuesta pueda ingresarse en una base de datos. Para lograr la codificación, se revisan las respuestas para identificar palabras, frases, temas y otros tipos de patrones comunes en las respuestas. Luego se asignan códigos para facilitar el análisis cuantitativo de datos. La transformación de datos es el proceso de cambiar la forma original de los datos a un nuevo formato. Esto se hace típicamente para comprender más fácilmente los datos o para lograr algún otro objetivo de investigación. Cuando se tenga valores atípicos, así como observaciones con datos faltantes, debe decidir si desea conservarlos o eliminarlos. El enfoque más conservador es eliminarlos para evitar distorsionar o tergiversar sus hallazgos. Si los retiene, debe tener una razón válida para hacerlo. Esto también es cierto si decide reemplazar los datos faltantes con una estimación del valor y luego conservarlos en su análisis. Retener observaciones con datos faltantes o reemplazados es arriesgado y debe hacerse con precaución. 7.14 Estadística Descriptiva Los cuadros y gráficos más utilizados incluyen distribuciones de frecuencia, gráficos de barras, gráficos circulares y gráficos de líneas. Las medidas de tendencia central permiten a los
investigadores resumir y condensar información para comprenderla mejor. La media, la mediana y la moda son medidas de tendencia central. Las medidas de tendencia central ubican el centro de la distribución, así como otra información útil. Las medidas de dispersión describen la tendencia de las respuestas a apartarse de la tendencia central (media, mediana y moda). Calcular la dispersión de los datos, o cómo las respuestas varían de la media, es otro medio de resumir los datos. Las medidas típicas de dispersión utilizadas para describir la variabilidad en una distribución de números incluyen el rango, la varianza, la desviación estándar, la asimetría y la curtosis. 7.15 Pruebas estadísticas para probar hipótesis Los datos se convierten en conocimiento solo después de que el análisis ha confirmado que se puede utilizar un conjunto de relaciones propuestas para mejorar la toma de decisiones comerciales. En la investigación cuantitativa, examinamos las relaciones hipotéticas para ver qué tipo de conclusiones son apropiadas. Después de que el investigador ha desarrollado las hipótesis y seleccionado un nivel de riesgo aceptable (significación estadística), el siguiente paso es probar las hipótesis. Cuando probamos hipótesis, estamos convirtiendo datos en conocimiento. Se pueden utilizar varias técnicas estadísticas para probar hipótesis. La elección de una técnica particular depende, primero, del número de variables y, segundo, de la escala de medición. 7.16 Procedimientos paramétricos y no paramétricos Hay dos tipos principales de procedimientos estadísticos: paramétricos y no paramétricos. La principal diferencia entre ellos radica en los supuestos subyacentes sobre los datos. Cuando los datos se miden utilizando una escala de intervalo o relación y el tamaño de la muestra es grande, los procedimientos estadísticos paramétricos son apropiados. También se supone que los datos de la muestra se obtienen de poblaciones con distribuciones normales (en forma de campana). Cuando no es posible suponer una distribución normal, el investigador debe utilizar procedimientos estadísticos no paramétricos. Cuando los datos se miden utilizando una escala ordinal o nominal, generalmente no es apropiado suponer que la distribución es normal. Por lo tanto, se deben utilizar procedimientos estadísticos no paramétricos o sin distribución. Los procedimientos paramétricos: Se aplican a muestras de gran tamaño (>20), trabaja con variables de tipo nominal o de intervalo, sus datos tienen una Distribución Normal, sus Hipótesis se basan en valores numéricos, en especial promedios y no considera valores perdidos como fuente de información. En cambio, los valores
No Paramétricos se aplican a muestras pequeñas (<20), trabaja Solo con variables categóricas, su Distribución de datos es desconocida, sus Hipótesis se basan sobre rangos, mediana, frecuencia de datos y Asume valores perdidos son fuente de información. 7.17 La Técnica Estadística Apropiada Los modelos conceptuales son una excelente manera de mostrar visualmente las relaciones hipotéticas entre variables independientes y dependientes. Las relaciones pueden indicar si son positivas o negativas en la dirección. Las técnicas estadísticas nos permiten determinar si la evidencia empírica confirma las hipótesis propuestas. Las técnicas estadísticas bivariadas pueden evaluar dos variables. Las técnicas estadísticas multivariadas pueden examinar muchas variables simultáneamente y pueden manejar múltiples variables dependientes e independientes. La técnica estadística adecuada también varía dependiendo de si sus datos son nominales, ordinales, de intervalo o de relación. 7.18 Chi Square (χ 2 ) La prueba estadística chi cuadrado (χ 2) se puede usar para probar si las frecuencias de dos variables con escala nominal están relacionadas. Se pueden examinar los datos nominales de las preguntas sobre el tipo de trabajo (profesor, médico, gerente, etc.), género, recuerdo de publicidad u otras variables categóricas. La estadística de chi cuadrado compara las frecuencias observadas (a veces referidas como reales) de las respuestas con las frecuencias esperadas. Formulación de Hipótesis. La Hipótesis NULA (H0) es aquella en la que se asegura que los dos parámetros analizados son independientes uno del otro. La Hipótesis ALTERNA (H1) es aquella en la que se asegura que los dos parámetros analizados sí son dependientes. EJEMPLOS “Melissa conjetura que el uso de cinturón de seguridad, en los conductores, está relacionado con el género.”H0: El uso del cinturón de seguridad es independiente del género. H1: El uso del cinturón de seguridad no es independiente del género. 7.19 t Test La prueba t compara las medias de una variable de intervalo razón para dos grupos o categorías de una variable nominal/ordinal. Se puede usar para probar una hipótesis que establece que las medias para las variables asociadas con dos muestras o grupos independientes serán las
mismas. El uso de una prueba t requiere datos de intervalo o razón, y suponemos que las poblaciones de muestra tienen distribuciones normales y las varianzas son iguales. La prueba t evalúa si las diferencias observadas entre dos medias de muestra ocurrieron por casualidad o si existe una diferencia real. La prueba t evalúa si las diferencias observadas entre dos medias de muestra ocurrieron por casualidad o si existe una diferencia real. La prueba t es apropiada en situaciones donde el tamaño de la muestra es pequeño (n = 30 o menos) y se desconoce la desviación estándar de la población. La prueba t usa la distribución t, también llamada distribución t de Student, para probar hipótesis. La distribución t estándar es una distribución simétrica en forma de campana con una media de cero y una desviación estándar de uno. Cuando en la investigación se comparan diferentes grupos o muestras, se obtienen diferentes datos de esas muestras o grupos, la prueba t de student cuantifica esta diferencia entre los grupos o muestras. La expresión matemática formal = ������ − ������ ������ ������. Es de la prueba t de student, pero le puedes llamar solamente “prueba t”. La prueba estadística para t de Student es el valor t, la t… representa el número de unidades estándares que están separando las medias de los dos grupos. 7.20 ANOVA ANOVA significa análisis de varianza. Se utiliza para examinar las diferencias estadísticas entre las medias de dos o más grupos. La variable dependiente es métrica, y las variables independientes no son métricas. El ANOVA unidireccional tiene una sola variable independiente no métrica, y el ANOVA bidireccional puede tener dos o más variables independientes no métricas. 7.21 MANOVA MANOVA es una técnica estadística similar a ANOVA, pero puede examinar las diferencias de grupo en dos o más variables dependientes de métricas al mismo tiempo. La diferencia es que, en lugar de una variable dependiente de la métrica, la técnica puede examinar dos o más. El objetivo es el mismo ya que ambas técnicas evalúan las diferencias en los grupos (variables categóricas) ya que impactan las variables dependientes de la métrica. Mientras que ANOVA examina las diferencias en una sola variable dependiente de la métrica, MANOVA examina las diferencias de grupo en múltiples variables dependientes de la métrica al mismo tiempo. Con ANOVA, la hipótesis nula es que las medias de la variable dependiente individual
son las mismas en todos los grupos. En MANOVA, la hipótesis nula es que las medias de las variables dependientes múltiples son las mismas en todos los grupos. 7.22 CLUSTER ANALYSIS El análisis de conglomerados permite a los investigadores colocar objetos (por ejemplo, clientes, marcas, productos) en grupos para que los objetos en los grupos sean similares entre sí. Al mismo tiempo, los objetos en cualquier grupo particular son diferentes de los objetos en todos los demás grupos. Agrupando un conjunto de objetos de datos en grupos. Como función de minería de datos, el análisis de conglomerados sirve como una herramienta para obtener información sobre la distribución de datos para observar las características de cada conglomerado. Los métodos de agrupamiento se pueden clasificar en las siguientes categorías: Algoritmos de particionamiento: construya varias particiones y luego evalúelas por algún criterio. Algoritmos de jerarquía: cree una descomposición jerárquica del conjunto de datos (u objetos) utilizando algún criterio. Basado en densidad: basado en conectividad y funciones de densidad. Basado en la cuadrícula: basado en una estructura de granularidad de múltiples niveles. 7.23 CORRELATION La correlación examina la asociación entre dos variables. Las fortalezas de la asociación se miden por el coeficiente de correlación. Cuando las escalas utilizadas para recopilar datos son ordinales (no métricas), un analista puede utilizar el coeficiente de correlación de orden de rango de Spearman (rho) en lugar de la correlación de momento-producto de Pearson. El coeficiente de correlación de Spearman generalmente resulta en una correlación más baja. A). La correlación de Pearson se usa cuando los datos son de intervalo o relación en la naturaleza. B) La correlación de orden de rango de Spearman se usa para datos ordinales. Siempre que se pueda suponer que las variables independientes y dependientes pertenecen a distribuciones normales, se puede utilizar el método de correlación lineal de Pearson, maximizando la potencia estadística y el rendimiento. Siempre que los datos sean escasos, raros y / o no pertenezcan a distribuciones normales, se debe utilizar el método de correlación de Spearman no paramétrico, que produce el coeficiente de correlación de rango (rho), pero no su R2.
7.24 ANALISIS DISCRIMINANTE El Análisis Discriminante es una técnica estadística que se utiliza para clasificar a distintos individuos en grupos, o poblaciones, alternativos a partir de los valores de un conjunto de variables sobre los individuos a los que se pretende clasificar. Cada individuo puede pertenecer a un solo grupo. El análisis discriminante permite al investigador predecir la pertenencia al grupo utilizando dos o más variables métricas independientes. La variable de pertenencia al grupo es una variable dependiente no métrica. Puede Aplicarse para: 1) Describir o explicar la diferencia entre los distintos tipos de objectos. 2) Hacer Inferencia: contrastar diferencias significativas entre poblaciones. 3) Decidir donde clasificar un objeto. 7.25 EXPLORATORY FACTOR ANALYSIS El Análisis Factorial Exploratorio (EFA) se usa para resumir la información de un gran número de variables en un número mucho menor de variables o factores. Se usa para combinar variables, mientras que el análisis de conglomerados se usa para identificar grupos con características similares. El análisis factorial exploratorio se refiere a cuántos factores son necesarios para explicar las relaciones entre un conjunto de indicadores y a la estimación de las cargas factoriales. Está asociado con el desarrollo de la teoría. El análisis factorial confirmatorio se refiere a determinar si el número de factores \"se ajusta\" a lo que se espera sobre la base de una teoría preestablecida. Los artículos se cargan según lo previsto en el número esperado de factores. Hipotetiza de antemano el número de factores. 7.26 REGRESSION El análisis de regresión es quizás la técnica de análisis de datos más ampliamente aplicada para medir relaciones lineales entre dos o más variables. Podemos clasificar los tipos de regresión según diversos criterios. En primer lugar, en función del número de variables independientes: Regresión simple: Cuando la variable Y depende únicamente de una única variable X. Regresión múltiple: Cuando la variable Y depende de varias variables (X1, X2, ..., Xr). En segundo lugar, en función del tipo de función f(X): Regresión lineal: Cuando f(X) es una función lineal. Regresión no lineal: Cuando f(X) no es una función lineal. En tercer lugar, en función de la naturaleza de la relación que exista entre las dos variables: La variable X puede ser la causa del valor de la variable Y. Por ejemplo, en toxicología, si X = Dosis de la droga e Y = Mortalidad, la
mortalidad se atribuye a la dosis administrada y no a otras causas. Puede haber simplemente relación entre las dos variables. Por ejemplo, en un estudio de medicina en que se estudian las variables X = Peso e Y = Altura de un grupo de individuos, puede haber relación entre las dos, aunque difícilmente una pueda considerarse causa de la otra. 7.27 PLS-SEM El modelado de ecuaciones estructurales de mínimos cuadrados parciales (PLS-SEM) es una técnica de análisis estadístico que combina el análisis de componentes principales (PCA) con regresión múltiple. El método es un enfoque de varianza para confirmar modelos de medición y estimar relaciones estructurales para maximizar la varianza explicada en las variables dependientes. Presentamos una estimación típica del modelo estructural usando PLS. En esta estructura SEM, X 1 y X 2 se denominan variables exógenas, mientras que Y 1 e Y 2 se denominan variables endógenas. Todas las variables X e Y son construcciones reflexivas latentes (es decir, no observables). Las construcciones latentes se miden por sus diversas variables indicadoras. Por ejemplo, la construcción X 1 se mide por x 1, x 2 yx 3, y la construcción Y 1 se mide por y 1, y 2, y 3. Los indicadores también se denominan ítems o variables manifiestas. Se recomienda que las construcciones latentes se midan con un mínimo de tres indicadores, pero cuatro o cinco indicadores proporcionan una mayor validez para las variables latentes (construcciones). La estructura del modelo (es decir, las interrelaciones entre la varianza explicada en todas las variables endógenas. La cantidad de varianza explicada está definida por el r 2 y se interpreta de la misma manera que con la regresión múltiple. Por lo tanto, PLS-SEM puede considerarse Una extensión del análisis de regresión múltiple. 7.28 Clasificación de técnicas estadísticas La gráfica muestra una clasificación útil de las técnicas estadísticas. Como puede ver mirando en la parte superior, dividimos las técnicas en enfoques estadísticos de dependencia e interdependencia, dependiendo del número de variables dependientes. Si hay una sola variable dependiente, una técnica se denomina método de dependencia; es decir, tenemos variables dependientes e independientes en nuestro análisis. Por el contrario, cuando no tenemos una variable dependiente claramente identificada, nos referimos a la técnica como un método de interdependencia. En otras palabras, cuando usamos técnicas de interdependencia, todas las
variables se analizan juntas, y nuestro objetivo es formar grupos o dar significado a un conjunto de variables o encuestados. Tenga en cuenta también que cuando tenemos múltiples variables dependientes (más de una), las técnicas de interdependencia también se pueden aplicar. Usando la clasificación, podemos seleccionar la técnica estadística adecuada. Si tenemos un problema de investigación que involucra asociación o predicción usando variables dependientes e independientes, deberíamos mirar las técnicas de dependencia en el lado izquierdo del diagrama. La elección de una técnica estadística particular también depende de si tenemos una variable dependiente métrica o no métrica. Con variables no métricas, dependientes del ordinal, usaríamos la correlación de Spearman, discutida previamente. Con un dependiente nominal no métrico, utilizamos análisis discriminante o regresión logística. Por otro lado, si nuestra variable dependiente es métrica, podemos usar correlación, regresión, ANOVA o MANOVA. 7.29 Little Green Book Series of Quantitative Applications in the Social Sciences La compañía SAGE publica una serie titulada Little Green Books, donde proporcionan textos cortos y accesibles sobre todo tipo de métodos y aplicaciones cuantitativos populares en las Ciencias Sociales. Al proporcionar explicaciones estadísticas claras, ejemplos empíricos directos y procedimientos listos para usar, estos textos complementarios son apropiados para el investigador individual y para cualquier curso de estadística de nivel de posgrado, intermedio o avanzado en todo el espectro de disciplinas académicas. Los volúmenes breves abordan un espectro de temas cuantitativos avanzados que incluyen regresión, modelos, análisis de datos, diseño experimental, medición, datos de encuestas y más. 7.30 Little Blue Book Series of Qualitative Research techniques La serie de Métodos de investigación cualitativa de SAGE, Little Blue Books, está diseñada para enseñar a los investigadores novatos sobre modos específicos de investigación social, así como para ampliar la gama de métodos de ciencias sociales utilizados por investigadores experimentados. Little Blue Books proporciona textos cortos y accesibles sobre todo tipo de métodos cualitativos. Al proporcionar explicaciones claras y comentarios sobre consideraciones teóricas y prácticas en la implementación de la investigación cualitativa, estos textos complementarios son apropiados para el investigador individual y para cualquier curso de métodos cualitativos de nivel de posgrado, intermedio o avanzado en todo el espectro de disciplinas
académicas. Los Little Blue Books de SAGE abordan una amplia gama de temas cualitativos avanzados, incluyendo la redacción de investigaciones cualitativas, investigaciones de acción participativa, análisis de trabajo de campo feministas, análisis del discurso y etnografía. (Métodos de investigación SAGE) 7.31 Herramientas de Análisis Estadístico El análisis de datos cuantitativos implica uno de dos enfoques: (1) usar estadísticas descriptivas para obtener una comprensión de los datos o (2) probar hipótesis usando pruebas estadísticas. Hay dos sistemas que dominan actualmente el campo de las estadísticas: SPSS es la abreviatura de Paquete Estadístico para Ciencias Sociales y es utilizado por investigadores para realizar análisis estadísticos. Como su nombre indica, el software de estadísticas SPSS se utiliza para realizar solo operaciones estadísticas. SPSS Statistics es un paquete de software utilizado para análisis estadísticos interactivos o en lotes. Producido durante mucho tiempo por SPSS Inc., fue adquirido por IBM en 2009. Las versiones actuales se denominan IBM SPSS Statistics. PSPP es un programa para el análisis estadístico de datos muestreados. Es un reemplazo gratuito como en libertad para el programa propietario SPSS, y parece muy similar a él con algunas excepciones. PSPP es una aplicación estable y confiable. Puede realizar estadísticas descriptivas, pruebas T, anova, regresión lineal y logística, medidas de asociación, análisis de conglomerados, confiabilidad y análisis factorial, pruebas no paramétricas y más. Está diseñado para realizar sus análisis lo más rápido posible, independientemente del tamaño de los datos de entrada. Puede usar PSPP con su interfaz gráfica o los comandos de sintaxis más tradicionales.
Search
Read the Text Version
- 1 - 16
Pages: