martes, 30 de agosto de 2011

Principales Logros y Contribución Científica


Norbert Wiener:

Trabajando durante la segunda guerra mundial descubrió que se necesitaban computadoras más rápidas y mejores que las de esos tiempos.

Cuando se intereso por el desarrollo de las bases matemáticas para comunicar información decidió que la forma de hacerlo era entendiendo los sistemas de redes.

Josiah Gibbs:

Muestreo de Gibbs o Algoritmo de Gibbs



James Clerk Maxwell:

Las ecuaciones de Maxwell


Albert Einstein:

Teoría de la relatividad.


San Agustín:

Según Roger Penrose, San Agustín se adelanto a Albert Einstein con su “Intuición genial”.


Socrates:

Mayéutica, método para resolver problemas por medio de hábiles preguntas.


Platon:

Creación del comunismo.

Influencia en aspectos de filosofía, política, psicología, ética, estética e epistemología.

I.1) ¿Qué relación hay entre Información, Organización y Probabilidad?

La información y la organización están muy relacionadas, por que una empresa no puede organizarse adecuadamente si no tiene la información pertinente. La organización de la información es uno de los pilares del éxito de las empresas. Debido a este factor se han desarrollado rápidamente los sistemas computarizados para la gestión de la información. Una buena organización garantiza disponer de la información precisa al instante, haciéndola visible sólo a aquellos usuarios con los permisos suficientes. Además, una buena organización permite una gran coordinación y comunicación entre los miembros. Ha esto lo podemos relacionar con la probabilidad, ya que la probabilidad mide la frecuencia con la que se mide un resultado al llevar un experimento aleatorio. La probabilidad sirve como herramienta para obtener datos pertinentes de manera rápida, una vez obtenidos estos datos, proporciona métodos para su organización y procesamiento, para obtener la información requerida.


I.2) ¿Cómo se define el concepto de entropía y qué relación guarda con el de información?


La definición de entropía tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria o la cantidad de “desorden” que libera un sistema. De esta forma podremos hablar de la cantidad de información que lleva una señal. La medida de información debe ser proporcional; es decir, el cambio pequeño en una de las probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía. Además, si todos los elementos tienen una probabilidad igual entonces la entropía es máxima.





I.3) ¿Cuál es la metáfora usada por Wiener entre información y energía?


La información es información, no es materia ni energía.



I.4) Cómo interpretaría Wiener la información de Einstein que dice ¨Dios no juega a los dados¨


Según el método probabilístico de Norbert Wiener la información se puede estudiar independientemente de cualquier significado que pueda tener. Por lo tanto, analizando las grandes muestras de los hechos se pueden identificar hechos claves y por consiguiente descifrar esta información.













I.5) ¿Cómo relaciona Wiener la introducción del concepto de probabilidad con la concepción de San Agustín del Mal?
San Agustin sostiene que el mal es causado por la ausencia de bien, es decir, no puede haber mal innato, solo es la ausencia de bien lo que provoca el mal. Sin embargo, la bien es creador, es existente y por lo tanto el mal existirá cuando no haya bien.