Polkadot

Polkadot la red bayesiana. Teorema de Bayes

Polkadot la invento Gavin James Wood es un informático inglés, cofundador de Ethereum y creador de Polkadot y Kusama.

Polkadot es un marco multi-cadena que admite la interoperabilidad entre cadenas muy diferentes con varias propiedades, incluidas cadenas de pruebas de autoridad encriptadas adecuadas para redes empresariales internas (siempre que confirmen ciertas especificaciones). Por primera vez en su historia, las diferentes cadenas de bloques formarán una gran red multi-cadena interoperable e inclusiva con seguridad agrupada.

Polkadot tiene un sistema de gobernanza abierto. Las mejoras de la red se coordinan a través de la gobernanza en la cadena, asegurando que el desarrollo de Polkadot refleje los valores de la comunidad y evite el estancamiento.

Polkadot está diseñado para ser una red verdaderamente resistente: es capaz de adaptarse y actualizarse sin necesidad de bifurcarse. Esto permite a Polkadot adaptarse fácilmente a los cambios y actualizarse a medida que se dispone de mejores tecnologías.

Polkadot introduce la ”seguridad compartida,” donde múltiples cadenas son aseguradas por los validadores de Polkadot. Las blockchains pueden obtener seguridad desde el primer día cuando se conectan a Polkadot, lo que les da un fuerte incentivo para unirse a la red de Polkadot.

Thomas Bayes estudió el problema de la determinación de la probabilidad de las causas a través de los efectos observados.  Nació en Londres, Inglaterra, ~1702 – Tunbridge Wells, 1761,  fue un matemático británico y ministro presbiteriano. Su obra más conocida es el Teorema de Bayes.

El Teorema de Bayes


El teorema que lleva su nombre se refiere a la probabilidad de un suceso condicionado por la ocurrencia de otro suceso. Más específicamente, con su teorema se resuelve el problema conocido como «de la probabilidad inversa». Esto es, valorar probabilísticamente las posibles condiciones que rigen supuesto que se ha observado cierto suceso. Se trata de probabilidad «inversa» en el sentido de que la «directa» sería la probabilidad de observar algo supuesto que rigen ciertas condiciones. Los cultores de la inferencia bayesiana (basada en dicho teorema) afirman que la trascendencia de la probabilidad inversa reside en que es ella la que realmente interesa a la ciencia, dado que procura sacar conclusiones generales (enunciar leyes) a partir de lo objetivamente observado, y no viceversa.

Teorema de Bayes


Expresa la probabilidad condicional de un evento aleatorio {\displaystyle A} dado {\displaystyle B} en términos de la distribución de probabilidad condicional del evento {\displaystyle B} dado {\displaystyle A} y la distribución de probabilidad marginal de solo {\displaystyle A}.

Estudiando la red bayesiana Teorema de Bayes

En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de {\displaystyle A} dado {\displaystyle B} con la probabilidad de {\displaystyle B} dado {\displaystyle A}. Es decir, por ejemplo, que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza. Muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados.

Red bayesiana

Polkadot

Una red bayesiana, red de Bayes, red de creencia, modelo bayesiano (de Bayes) o modelo probabilístico en un grafo acíclico dirigido es un modelo grafo probabilístico (un tipo de modelo estático) que representa un conjunto de variables aleatorias y sus dependencias condicionales a través de un grafo acíclico dirigido (DAG por sus siglas en inglés). Por ejemplo, una red bayesiana puede representar las relaciones probabilísticas entre enfermedades y síntomas. Dados los síntomas, la red puede ser usada para computar la probabilidad de la presencia de varias enfermedades. Su nombre deriva del matemático inglés del siglo xviii Thomas Bayes.

Formalmente, las redes bayesianas son grafos dirigidos acíclicos cuyos nodos representan variables aleatorias en el sentido de Bayes: las mismas pueden ser cantidades observables, variables latentes, parámetros desconocidos o hipótesis. Las aristas representan dependencias condicionales; los nodos que no se encuentran conectados representan variables las cuales son condicionalmente independientes de las otras. Cada nodo tiene asociado una función de probabilidad que toma como entrada un conjunto particular de valores de las variables padres del nodo y devuelve la probabilidad de la variable representada por el nodo. Por ejemplo, si por padres son {\displaystyle m} variables booleanas entonces la función de probabilidad puede ser representada por una tabla de {\displaystyle 2^{m}} entradas, una entrada para cada una de las {\displaystyle 2^{m}} posibles combinaciones de los padres siendo verdadero o falso. Ideas similares pueden ser aplicadas a grafos no dirigidos, y posiblemente cíclicos; como son las llamadas redes de Markov.

Existen algoritmos eficientes que llevan a cabo la inferencia y el aprendizaje en redes bayesianas. Las redes bayesianas que modelan secuencias de variables (ej. señales del habla o secuencias de proteínas) son llamadas redes bayesianas dinámicas. Las generalizaciones de las redes bayesianas que pueden representar y resolver problemas de decisión bajo incertidumbre son llamados diagramas de influencia.

El teorema de Bayes es válido en todas las aplicaciones de la teoría de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadística tradicional solo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmación empírica mientras que los llamados estadísticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cómo debemos modificar nuestras probabilidades subjetivas cuando recibimos información adicional de un experimento. La estadística bayesiana está demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en función de la evidencia empírica es lo que está abriendo nuevas formas de hacer conocimiento. Una aplicación de esto son los clasificadores bayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, que se adaptan con el uso. Otra aplicación se encuentra en la fusión de datos, combinando información expresada en términos de densidad de probabilidad proveniente de distintos sensores.

Como aplicaciones puntuales:

El diagnóstico de cáncer.
Evaluación de probabilidades durante el desarrollo de un juego de bridge por Dan F. Waugh y Frederick V. Waugh.
Probabilidades a priori y a posteriori.

Un uso controvertido en la Ley de sucesión de Laplace.

La ley de Laplace es una fórmula muy utilizada para calcular las probabilidades de un experimento aleatorio cuando los sucesos o resultados del experimento tienen la misma probabilidad de aparecer.

Casos posibles: Son todos los resultados posibles que podemos obtener en un experimento. Por ejemplo, si el experimento es tirar un dado, tendremos 6 casos posibles porque un dado solo tiene 6 caras.

Casos probables: Son los resultados que salen en cada experimento de manera secuencial, es decir, que los resultados son excluyentes: si ocurre un resultado no pueden ocurrir los otros. En el experimento de tirar un dado, cada cara del dado es un caso probable. En otras palabras, que salga un dos (2) o un cinco (5) son ejemplos de casos probables en el experimento de lanzar un dado.

En el testeo de hipótesis en Ciencia Política cuando se usa metodología process tracing.

Dentro de la inferencia estadística, un contraste de hipótesis (también denominado test de hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone en una población estadística es compatible con lo observado en una muestra de dicha población. Fue iniciada por Ronald Fisher y fundamentada posteriormente por Jerzy Neyman y Egon Pearson.

Mediante esta teoría, se aborda el problema estadístico considerando una hipótesis determinada {\displaystyle H_{0}\,} y una hipótesis alternativa {\displaystyle H_{1}\,}, y se intenta dirimir cuál de las dos hipótesis se escogerá, tras aplicar el problema estadístico a un cierto número de experimentos.

Está fuertemente asociada al concepto estadístico de potencia y a los conceptos de errores de tipo I y II, que definen respectivamente, la posibilidad de tomar un suceso verdadero como falso, o uno falso como verdadero.

Los tipos más importantes son los test centrados, de hipótesis y alternativa simple, aleatorizados, etc. Dentro de los tests no paramétricos, el más extendido es probablemente el test de la U de Mann-Whitney.

Aplicaciones de los contrastes de hipótesis

Los contrastes de hipótesis, como la inferencia estadística en general, son herramientas de amplio uso en la ciencia en general. En particular, la moderna Filosofía de la ciencia desarrolla el concepto de falsabilidad de las teorías científicas basándose en los conceptos de la inferencia estadística en general y de los contrastes de hipótesis. En este contexto, cuando se desea optar entre dos posibles teorías científicas para un mismo fenómeno (dos hipótesis) se debe realizar un contraste estadístico a partir de los datos disponibles sobre el fenómeno que permitan optar por una u otra.

Las técnicas de contraste de hipótesis son también de amplia aplicación en muchos otros casos, como ensayos clínicos de nuevos medicamentos, control de calidad, encuestas, etcétera.

Tango de Buenos Aires Argentina

Tango en Palermo
Tango y Conceptos
Tango y Esclavitud
Tango Cambalache
Tango Tag