Вы находитесь на странице: 1из 10

Ingresar al foro y responder las preguntas generadoras con claridad, coherencia y

pertinencia.

Consulte y explique los siguientes conceptos:


1. Qué es la inferencia estadística:
La inferencia estadística es el conjunto de métodos y técnicas que permiten inducir,
a partir de la información empírica proporcionada por una muestra, cual es el
comportamiento de una determinada población con un riesgo de error medible en
términos de probabilidad.
Los métodos paramétricos de la inferencia estadística se pueden dividir,
básicamente, en dos: métodos de estimación de parámetros y métodos de contraste
de hipótesis. Ambos métodos se basan en el conocimiento teórico de la distribución
de probabilidad del estadístico muestral que se utiliza como estimador de un
parámetro.

La estimación de parámetros consiste en asignar un valor concreto al parámetro o


parámetros que caracterizan la distribución de probabilidad de la población. Cuando
se estima un parámetro poblacional, aunque el estimador que se utiliza posea todas
las propiedades deseables, se comete un error de estimación que es la diferencia
entre la estimación y el verdadero valor del parámetro. El error de estimación es
desconocido por lo cual es imposible saber en cada caso cual ha sido la magnitud
o el signo del error; para valorar el grado de precisión asociado con una estimación
puntual se parte de dicha estimación para construir un intervalo de confianza. En
síntesis, un intervalo de confianza está formado por un conjunto de valores
numéricos tal que la probabilidad de que éste contenga al verdadero valor del
parámetro puede fijarse tan grande como se quiera. Esta probabilidad se denomina
grado de confianza del intervalo, y la amplitud deéste constituye una medida del
grado de precisión con el que se estima el parámetro.

Los métodos de contraste de hipótesis tienen como objetivo comprobar si


determinado supuesto referido a un parámetro poblacional, o a parámetros
análogos de dos o más poblaciones, es compatible con la evidencia empírica
contenida en la muestra. Los supuestos que se establecen respecto a los
parámetros se llaman hipótesis paramétricas. Para cualquier hipótesis paramétrica,
el contraste se basa en establecer un criterio de decisión, que depende en cada
caso de la naturaleza de la población, de la distribución de probabilidad del
estimador de dicho parámetro y del control que se desea fijar a priori sobre la
probabilidad de rechazar la hipótesis contrastada en el caso de ser ésta cierta.

En todo contraste intervienen dos hipótesis. La hipótesis nula (Ho) es aquella que
recoge el supuesto de que el parámetro toma un valor determinado y es la que
soporta la carga de la prueba. La decisión de rechazar la hipótesis nula, que en
principio se considera cierta, está en función de que sea o no compatible con la
evidencia empírica contenida en la muestra. El contraste clásico permite controlar a
priori la probabilidad de cometer el error de rechazar la hipótesis nula siendo ésta
cierta; dicha probabilidad se llama nivel de significación del contraste ( ) y suele
fijarse en el 1%, 5% o 10%.

La proposición contraria a la hipótesis nula recibe el nombre de hipótesis alternativa


(H1) y suele presentar un cierto grado de indefinición: si la hipótesis alternativa se
formula simplemente como 'la hipótesis nula no es cierta', el contraste es bilateral o
a dos colas; por el contrario cuando se indica el sentido de la diferencia, el contraste
es unilateral o a una sola cola.

Cuando se realiza un contraste con el SPSS no se fija el nivel de significación


deseado, el programa calcula el valor-p o significación asintótica, que es la
probabilidad de que el estadístico de prueba tome un valor igual o superior al
muestral bajo el supuesto de que la hipótesis nula es cierta. Por tanto, si el valor-p
es menor o igual que el nivel de significación deseado se rechazará Ho.Un valor-p
próximo a cero indica que se rechazará la Ho para cualquier nivel de significación.

Clases de muestreo:
El muestreo es por lo tanto una herramienta de la investigación científica, cuya
función básica es determinar que parte de una población debe examinarse, con la
finalidad de hacer inferencias sobre dicha población.
La muestra debe lograr una representación adecuada de la población, en la que se
reproduzca de la mejor manera los rasgos esenciales de dicha población que son
importante para la investigación. Para que una muestra sea representativa, y por lo
tanto útil, debe de reflejar las similitudes y diferencias encontradas en la población,
es decir ejemplificar las características de ésta.

1- Muestreo probabilístico
Los métodos de muestreo probabilísticos son aquellos que se basan en el principio
de equiprobabilidad. Es decir, aquellos en los que todos los individuos tienen la
misma probabilidad de ser elegidos para formar parte de una muestra y,
consiguientemente, todas las posibles muestras de tamaño no tienen la misma
probabilidad de ser seleccionadas.
- Muestreo aleatorio simple:
El procedimiento empleado es el siguiente: 1) se asigna un número a cada individuo
de la población y 2) a través de algún medio mecánico (bolas dentro de una bolsa,
tablas de números aleatorios, números aleatorios generados con una calculadora u
ordenador, etc.) se eligen tantos sujetos como sea necesario para completar el
tamaño de muestra requerido.
- Muestreo aleatorio sistemático:
Este procedimiento exige, como el anterior, numerar todos los elementos de la
población, pero en lugar de extraer n números aleatorios sólo se extrae uno.
- Muestreo aleatorio estratificado:
Trata de obviar las dificultades que presentan los anteriores ya que simplifican los
procesos y suelen reducir el error muestral para un tamaño dado de la muestra.
Consiste en considerar categorías típicas diferentes entre sí (estratos) que poseen
gran homogeneidad respecto a algunacaracterística (se puede estratificar).
- Muestreo aleatorio por conglomerados:
En el muestreo por conglomerados la unidad muestral es un grupo de elementos de
la población que forman una unidad, a la que llamamos conglomerado. Las
unidades hospitalarias, los departamentos universitarios, una caja de determinado
producto, etc.
1. Muestreo no probabilísticos:
Este método no sirve para realizar generalizaciones (estimaciones inferenciales
sobre la población), pues no se tiene certeza de que la muestra extraída sea
representativa, ya que no todos los sujetos de la población tienen la misma
probabilidad de ser elegidos.
- Muestreo por cuotas:
También denominado en ocasiones "accidental". Se asienta generalmente sobre la
base de un buen conocimiento de los estratos de la población y/o de los individuos
más "representativos" o "adecuados" para los fines de la investigación.
- Muestreo intencional o de conveniencia:
Este tipo de muestreo se caracteriza por un esfuerzo deliberado de obtener
muestras "representativas" mediante la inclusión en la muestra de grupos
supuestamente típicos.
- Bola de nieve:
Se localiza a algunos individuos, los cuales conducen a otros, y estos a otros, y así
hasta conseguir una muestra suficiente.
- Muestreo Discrecional ·
A criterio del investigador los elementos son elegidos sobre lo que él cree que
pueden aportar al estudio.

2. distribuciones muestrales.
Una estadística muestral proveniente de una muestra aleatoria simple tiene un
patrón de comportamiento (predecible) en repetidas muestras. Este patrón es
llamado la distribución muestral de la estadística.
Si conocemos la distribución muestral podemos hacer inferencia.
Las distribuciones muestrales adoptan diferentes formas según las estadísticas
investigadas y las características de la población estudiada.

3. Qué es la programación lineal: La Programación Lineal corresponde a un


algoritmo a través del cual se resuelven situaciones reales en las que se
pretende identificar y resolver dificultades para aumentar la productividad
respecto a los recursos (principalmente los limitados y costosos),
aumentando así los beneficios. El objetivo primordial de la Programación
Lineal es optimizar, es decir, maximizar o minimizar funciones lineales en
varias variables reales con restricciones lineales (sistemas de inecuaciones
lineales), optimizando una función objetivo también lineal.
formulación de un problema de programación lineal:

Una persona para su alimentación normal debe tomar diariamente 75 mg de


proteínas, 1.2 mg de calcio, 1.2 mg de hierro y 3600 calorías. ¿Qué cantidad mínima
de leche, huevos y pan debe tomar diariamente una persona para cubrir las
necesidades de calcio y hierro si consume al día por lo menos 2 rebanadas de pan?

Pasos para el desarrollo del método simplex:


1. factible Hallar una solución básica inicial.
a. Convertir las desigualdades en igualdades.
b. Igualar la Función Objetivo a cero.
c. Escribir la tabla inicial simplex. (en las columnas aparecerán todas las variables
del problema y, en las filas, los coeficientes de las igualdades obtenidas, una fila
para cada restricción y la primera fila con los coeficientes de la función objetivo.
2. Prueba de optimidad: determinar si la solución básica factible inicial es óptima,
esto ocurre si todos los coeficientes de la ecuación son no negativos (= 0), para el
caso de maximización. Si es así, el proceso termina; de otra manera se lleva a cabo
otra iteración para obtener la nueva solución básica factible inicial.
3. Para escoger la variable de decisión que entra en la base, nos fijamos en la
primera fila, la de los coeficientes de la función objetivo y escogemos la variable con
el coeficiente negativo mayor
a. Si existiesen dos o más coeficientes iguales que cumplan la condición anterior,
entonces se elige uno cualquiera de ellos.
b. Si en la primera fila no existiese ningún coeficiente negativo, significa que se ha
alcanzado la solución óptima. Por tanto, lo que va a determinar el final del proceso
de aplicación del método del simplex, es que en la primera fila no haya elementos
negativos (para el caso de maximización).
c. La columna de la variable que entra en la base se llama columna pivote
4. Para todos los problemas de maximización y minimización, la variable que sale
es la variable básica que tiene la razón más pequeña (positiva). Una coincidencia
se anula arbitrariamente.
a. Para determinar la razón de cada renglón, se divide cada término de la última
columna (valores solución) por el término correspondiente de la columna pivote,
siempre que estos últimos sean mayores que cero.
b. Si hubiese algún elemento menor o igual que cero no se hace dicho cociente. En
el caso de que todos los elementos fuesen menores o iguales a cero, entonces
tendríamos una solución no acotada y no se puede seguir.
c. El término de la columna pivote que en la división anterior dé lugar al menor
cociente positivo, indica la fila de la variable de holgura que sale de la base. Esta
fila se llama fila pivote
5. En la intersección de la fila pivote y columna pivote se encuentra el elemento
pivote.
6. Se determina la nueva solución básica factible construyendo una nueva tabla en
la forma apropiada de eliminación de Gauss, abajo de la que se tiene. Para cambiar
el coeficiente de la nueva variable básica en el renglón pivote a 1, se divide todo el
renglón entre el número pivote, entonces
Nueva fila del pivote = renglón o fila pivote antiguo / número pivote
7. Para el resto de las filas:
Nueva fila= (Vieja fila) - (Coeficiente de la vieja fila en la columna de la variable
entrante) X (Nueva fila del pivote) Ó
renglón nuevo = renglón antiguo - (coeficiente de la columna pivote X renglón pivote
nuevo)
8. Si en los elementos de la primera fila hay un coeficiente negativo, significa que
no hemos llegado todavía a la solución óptima. Entonces se repite el proceso.
9. Si todos los coeficientes de la fila de la función objetivo son positivos, hemos
llegado a la solución óptima. La solución óptima viene dada por el valor de Z en la
columna de los valores solución. En la misma columna se puede observar el vértice
donde se alcanza, observando las filas correspondientes a las variables de decisión
que han entrado en la base.
5. Qué son los métodos determinísticos: Es una herramienta fundamental
para la toma de decisiones, optimiza los resultados logísticos, administrativos
y financieros de una organización con el fin de mejorar procesos,
reducir costos y mejorar sus recursos técnicos. en especial los relacionados
con procesos, recursos, costos etc, de competencia para los futuros
ingenieros y empresarios.

Pasos para la construcción de modelos matemáticos:


Un modelo matemático se define como una descripción desde el punto de vista
delas matemáticas de un hecho o fenómeno del mundo real, desde el tamaño
de la población, hasta fenómenos físicos como la velocidad, aceleración o
densidad. El objetivo del modelo matemático es entender ampliamente el
fenómeno y tal vez predecir su comportamiento en el futuro.
1. Definición del problema de interés y recolección de los datos relevantes.
2. Formulación de un modelo que represente el problema.
3. Solución del modelo.
4. Prueba del modelo.
5. Preparación para la aplicación del modelo.
6. Puesta en marcha.
Definición de variable:
Una Variable es un objeto con cierta identidad, pero el medio que lo rodea lo
obliga a variar en torno a las condiciones que se presentan. Una de las
aplicaciones que más se le da al término es en la matemática, ya que, cuando
se nos presenta una ecuación, es con el fin de darle un valor fijo y exacto a una
o más variables, esta condición, permiten que las resoluciones de problemas
sean más sencillos. Las ecuaciones son las vías más sencillas de operar
matemáticamente situaciones complejas, en las que se deben determinar
cantidades exactas para valores precisos. Las variables son por lo general, las
respuestas que se le dan a los problemas.

función objetivo: Es la ecuación que será optimizada dadas las limitaciones o


restricciones determinadas y con variables que necesitan ser minimizadas o
maximizadas usando técnicas de programación lineal o no lineal.

Una función objetivo puede ser el resultado de un intento de expresar un


objetivo de negocio en términos matemáticos para su uso en el análisis de toma
de decisiones, operaciones, estudios de investigación o de optimización.
Restricciones: Cuando hablamos de las restricciones en un problema de programación
lineal, nos referimos a todo aquello que limita la libertad de los valores que pueden tomar
las variables de decisión.
La mejor manera de hallarlas consiste en pensar en un caso hipotético en el que
decidiéramos darle un valor infinito a nuestras variables de decisión.

6. Modelos Matemáticos:
Un modelo matemático describe teóricamente un objeto que existe fuera del campo
de las Matemáticas. Las previsiones del tiempo y los pronósticos económicos, por
ejemplo, están basados en modelos matemáticos. Su éxito o fracaso depende de la
precisión con la que se construya esta representación numérica, la fidelidad con la
que se concreticen hechos y situaciones naturales en forma de variables
relacionadas entre sí.
Modelo matemático
Básicamente, en un modelo matemático advertimos 3 fases:

* la construcción, proceso en el que se convierte el objeto a lenguaje matemático;


* el análisis o estudio del modelo confeccionado;
* la interpretación de dicho análisis, donde se aplican los resultados del estudio al
objeto del cual se partió.
Simulación en la Ingeniería Industrial:
La simulación de procesos es una de las más grandes herramientas de la ingeniería
industrial, la cual se utiliza para representar un proceso mediante otro que lo hace
mucho más simple e entendible. Esta simulación es en algunos casos casi
indispensable, como nos daremos cuenta a continuación. En otros casos no lo es
tanto, pero sin este procedimiento se hace más complicado.
Las áreas de aplicación de la simulación son muy amplias, numerosas y diversas,
basta mencionar sólo algunas de ellas: Análisis del impacto ambiental causado por
diversas fuentes Análisis y diseño de sistemas de manufactura Análisis y diseño de
sistemas de comunicaciones, la simulación se utiliza en la etapa de diseño para
auxiliar en el logro o mejoramiento de un proceso o diseño o bien a un sistema ya
existente para explorar algunas modificaciones.
Tendencias tecnológicas en las industrias
Recientes avances en las metodologías de simulación y la gran disponibilidad de
software que actualmente existe en el mercado, han hecho que la técnica de
simulación sea una de las herramientas más ampliamente usadas en el análisis de
sistemas. Además de las razones antes mencionadas, Thomas H. Taylor ha
sugerido que un estudio de simulación es muy importante para la ingeniería de
sistemas porque presenta las siguientes ventajas en el diseño
de estos:
• A través de un estudio de simulación, se puede estudiar el efecto de cambios
internos y externos del sistema, al hacer alteraciones en el modelo del sistema y
observando los efectos de esas alteraciones en el comportamiento del sistema.
• Una observación detallada del sistema que se está simulando puede conducir a
un mejor entendimiento del sistema y por consiguiente a sugerir estrategias que
mejoren la operación y eficiencia del sistema.
• La simulación de sistemas complejos puede ayudar a entender mejor la operación
del sistema, a detectar las variables más importantes que interactúan en el sistema
y a entender mejor las interrelaciones entre estas variables.
• La técnica de simulación puede ser utilizada para experimentar con nuevas
situaciones,
sobre las cuales tiene poca o ninguna información. A través de esta experimentación
se puede anticipar mejor a posibles resultados no previstos.
• Cuando nuevos elementos son introducidos en un sistema, la simulación puede
ser usada para anticipar cuellos de botella o algún otro problema que puede surgir
en el comportamiento del sistema.
• En simulación cada variable puede sostenerse constante excepto algunas cuya
influencia está siendo estudiada. Como resultado el posible efecto de descontrol de
las variables en el comportamiento del sistema necesita no ser tomados en cuenta.
Como frecuentemente debe ser hecho cuando el experimento está desarrollado
sobre un sistema real.

Aplicaciones y análisis de sensibilidad:


El análisis de sensibilidad es la técnica que determina cómo diferentes
valores de una variable independiente impactan en una variable dependiente
bajo un conjunto de supuestos. Estudia cómo la incertidumbre en el resultado
de un modelo o sistema matemático puede asignarse a diferentes fuentes en
sus variables de entrada.

Una de las aplicaciones clave del análisis de sensibilidad es en el uso de


modelos por parte de los gerentes y responsables en la toma de decisiones.
Se puede utilizar todo el contenido necesario para el modelo de decisión
mediante la aplicación repetida del análisis de sensibilidad.

Ayuda a los analistas de decisión a comprender las incertidumbres, los pros


y los contras, con las limitaciones y el alcance de un modelo de decisión.

La mayoría de las decisiones se toman bajo incertidumbre. Una técnica para


llegar a una conclusión es reemplazar todos los parámetros inciertos con los
valores esperados; luego se lleva a cabo el análisis de sensibilidad.

Identificación grupo de trabajo.

Вам также может понравиться