Charun

En mitología etrusca, Charun (también escrito Charu o Karun) actúa como uno de los psicopompos del inframundo, y que no debe ser confundido con el señor del inframundo, conocido por los etruscos como Aita. Lo retratan a menudo con Vanth, una diosa alada también asociada con el inframundo.

Su nombre proviene del Caronte griego, aunque no es seguro que los etruscos tuvieran un nombre originalmente para un dios del inframundo antes de esto. Según se ha sugerido por alteraciones en el Idioma etrusco θu „uno“ se cambió a θunśna „primero“, „lion“ (del griego leōn) y Apulu (del griego Apóllōn), palabras que terminan en -n después de u desaparecieron del lenuaje por lo que su nombre se escribía Хarun y después Хaru.

El Charun etrusco era fundamentalmente diferente de su homólogo griego. Se le representaba protegiendo la entrada al inframundo con un martillo, su símbolo religioso, además de tener orejas puntiagudas, serpientes alrededor de sus brazos y una coloración azulada que simboliza la decadencia de la muerte. En algunas imágenes tiene alas enormes. También se le representa como una criatura grande con cabellos de serpiente, una enorme y ganchuda nariz de buitre y grandes colmillos como un jabalí enormes cejas crespadas, enormes labios, fieros ojos, orejas puntiagudas una barba negra, enormes alas, piel descolorida (pálida, azulosa o grisasea) y serpientes alrededor de sus brazos.

Larissa Bonfante y Judith Swaddling mencionan sobre Charún: „Muchas escenas presentan a dos demonios del inframundo puramente etruscos, Vanth y Charu, cuyo trabajo no es castigar a los muertos, sino escoltarlos hasta su destino final“. Sin embargo, hay al menos dos ejemplos, en el sarcófago de Pulenas Laris, así como una figura roja de Orbetello, que ilustran a Charún de una manera amenazante. Cada una muestra Charún amenazando a una figura masculina con su martillo.

El carácter grotesco de la representación de Charún parece haber sido al menos parcialmente apotropaico en principio. El arte Apotropaico prácticado por sus vecinos griegos en este momento, quienes solían representar ojos exagerados pintados en recipientes para beber en el siglo 6 aC para conjurar a los espíritus mientras se bebe o la representación monstruosa de la Medusa cuya imagen se dice que volvía a los hombres en piedra. A través de estas imágenes violentas, grotescas y sangrientas, los etruscos creían defenderse de los malos espíritus a las tumbas, así como santificarlas los lugares del sacrificio ritual de un animal real que se realizaba en los ritos funerarios.

Nancy de Grummond ofrece una visión diferente. El relieve en el sarcófago de Laris Pulenas en Tarquinia, muestra a dos figuras de Charun balanceando sus martillos sobre la cabeza de una persona, aunque la cabeza (probablemente la de Pulenas, el noble del sarcófago) ya no sobrevive debido a un accidente de conservación. Años más tarde, en el Coliseo, una personaje disfrazado de Charún, llamado Dispater golpeaba al perdedor con un martillo para asegurarse de que estaba muerto. El martillo también solia ser utilizado para proteger a los muertos, sino que a veces se usaba para alejar a las serpientes que atacan el cadáver(como se muestra en el ánfora Orvieto).

De Grummond toma nota de que el ferry de Caronte sólo parece haber sobrevivido una vez en el arte etrusco, y que algunos demonios etruscos están equipadas con remos, pero normalmente los utilizan como armas en lugar que en su función marítima.

Muchos autores tienden a tener una visión más sensacionalista de Charún, hablando de él como un „demonio-de-la-muerte“. Estos autores pueden estar influenciados por visiones cristianas de el Infierno y el castigo moral. Para los etruscos, al igual que los griegos, Hades no era más que un lugar moralmente neutral para los muertos. Ni el „bueno“ ni el „malo“ podría escapar de las garras de la muerte, y ambos se habían reunido allí juntos.

Ron Terpening, un profesor de literatura italiana en la Universidad de Arizona, cita a Franz Ruyt, quien afirma que Charún es similar a los demonios de los caldeos o las divinidades hindúes Shiva y Kali. Se presume que es el agente de Mantus y Mania. Y, como Caronte, es comparable a Thanatos, Erinias y Keres de los griegos. El autor, al igual que de Grummond, siente que algo más adelante Renacimiento pinturas del griego Caronte. muestran la continuidad de las creencias pre-cristianas de los etruscos Más tarde, cuando la divinidad se había convertido en el Caronte griego, o Caronte en italiano, Terpening señala que el martillo o mazo de Charún a veces se sustituye por un remo, aunque no encaja con sus funciones.

De acuerdo con Jeff Rovin, Charun guiada las almas al bajo mundo sobre un caballo y „proporciona caballos a los recién fallecidos“, pero esto es pura especulación. También afirma que Charún parece amar la violencia y participa en las guerras y agregó que también goza de los desastres naturales. Una representación etrusca muestra a Charun con Ajax o Aquiles sacrificando prisioneros troyanos. Esta urna se conserva actualmente en Cabinet des Médailles 920, Biblioteca Nacional de París. Rovin dice que algunas veces se le representa con un espada, y que „rebana“ las almas con la misma. Por lo menos una imagen lo muestra mientras guiaba un alma a caballo, equipado con un martillo y una espada.

El Caron de Virgilio en la Eneida es particularmente cruel, de acuerdo con WF Jackson Knight, „el Caron de Virgilio no es sólo el barquero griego de Aristófanes [en Las ranas]. El suyo es en si, más de la mitad del etrusco Charun, ni el demonio torturador de la muerte, ni el barquero en absoluto.“

Se cree que Charun trabajaba con muchos asistentes en el mundo terrenal, aunque podrían ser deidades independientes por derecho propio. La mayor parte de sus nombres se han perdido para nosotros, pero al menos uno, Tuchulcha, se ha identificado en la Tumba de Orcus II, y tiene el pelo y las alas como una gorgona. Tuchulcha, cuyo género es objeto de debate entre los estudiosos, aparece en una pintura de la historia de Teseo (conocida por los etruscos como „These“) cuando visita a los infiernos. These y su amigo Pirítoo están jugando un juego de mesa, en el que participa Tuchulcha.

Hay cuatro Charuns en un fresco de la Tumba de los Charuns, y cada uno parece tener un apelativo. Se trata de Charun Chunchules, Charun Huths quien aparece cubierto de ampollas, Charun Lufe y un cuarto cuyo nombre se ha desmoronado hasta ser ilegible.

Muchos otros presuntos asistentes de Charun aparecen en la Tumba de los Demonios Azules, que es también el hogar de la única representación etrusca del transbordador antes mencionado de Caron.

En la época contemporánea, Charún nunca ha sido tan popular como su homólogo griego, aunque ha habido algunas excepciones.

Victor de Poděbrady

Victor de Poděbrady connu également comme: Victor duc de Münsterberg et d’Opava; (tchèque: Viktorin z Minsterberka); né le 29 mai 1443 à Cieszyn – † 30 aout 1500 à Cieszyn) comte de Kladsko, duc de Münsterberg en polonais Ziębice (1465-1472) et duc Opava en allemand Troppau (1465-1485).

Victor est le second fils du roi de Bohême Georges de Poděbrady et de sa première épouse Cunégonde de Sternberg. Créé par l’empereur, Comte d’Empire le 11 juin 1459 à Brno, il fut nommé par son père :

Il est captif de Mathias Corvin de 1469 et 1471 avant d’abdiquer de ses titres. Il meurt le 30 aout 1500 et il est inhumé à Glatz

1) Avant 1459 il épouse Marguerite Ptáčková (née vers 1445 † 1469/1472), fille unique de Hynek Ptácek z Pirkštejna dont:

2) vers 1473/1475 Sophie († 1475/1479), fille du duc Boleslas II duc de Cieszyn dont :

3) il épouse en 1480 Marguerite Paléologue († 1496) fille de Jean IV de Montferrat dont trois filles:

Canadian Coast Guard College

The Canadian Coast Guard College (CCGC) is a maritime training college and Canadian Coast Guard facility located in Westmount, Nova Scotia – a suburb of the former city of Sydney in the Cape Breton Regional Municipality.

The CCGC core training program revolves around a 4-year Officer Cadet program that prepares navigation and engineering officers for service on Canadian Coast Guard ships. These cadets receive a Bachelor of Technology (Nautical Science) that is granted in collaboration with Cape Breton University. Other training programs include a 6-month program for Marine Communications and Traffic Services Officers that specializes in radiotelephony procedures for marine safety and vessel traffic services to co-ordinate and monitor vessel movements in Canada’s territorial waters. Canadian Coast Guard officers that work in the nation’s Joint Rescue Coordination Centres (JRCCs) also undertake advanced training at CCGC where a mock-up of a JRCC exists for simulation and training purposes. Additionally, various courses and training programs exist for specialized positions in CCG, including administrative courses, small vessel handling, search and rescue, and environmental response.

Established in 1965 as a residential college on the site of the former navy base HMCS Protector located at Point Edward along the western shore of Sydney Harbour, CCGC’s first mandate was to train young men in 4-year diplomas of Marine Engineering or Marine Navigation for the Coast Guard’s Officer Training Program. The Officer Training Program expanded in 1973 to include women.

In 1981, CCGC moved from its location on the former Point Edward naval base to an adjacent custom-built 120 acre (486,000 m²) campus in neighbouring Westmount. The campus, designed by Nova Scotia Architect Keith L. Graham is located in a wooded area immediately south of Point Edward and adjacent to Petersfield Provincial Park. It consists of a variety of interlinked residential, training, administration, and health/fitness facilities. CCGC also has extensive simulators for depicting the navigation of vessels in a variety of scenarios, fully operational dry-land mock-ups of vessel engine rooms, and a simulator for a rescue coordination centre (RCC).

CCGC has a small fleet of training vessels ranging from sail boats and rigid hull inflatable boats (RHIB) to 40 foot (12 m) lifeboat cutters, and one state of the art 47-foot (14 m) motor life boat- all housed in a custom-built boathouse on the college’s waterfront along a small cove. Operational icebreakers, buoy tenders, and search and rescue patrol vessels in the coast guard’s Atlantic and Arctic fleets frequently call at Sydney Harbour to conduct cadet familiarization training.

From the 1980s to the 2000s (decade), the college expanded its training programs to include not only the 4 year Officer Training Program for the CCG, but also customized marine training for students from Commonwealth Caribbean nations, as well as other federal government agencies such as the Royal Canadian Mounted Police, Department of Fisheries and Oceans, and the Department of Transport. The 4 year Officer Training Program has also been expanded to include training for students from several Middle East nations.

In the 1995, the 4 year Officer Training Program was granted degree accreditation through an agreement with the University College of Cape Breton, since renamed Cape Breton University. Following completion of the Officer Training program, graduates now receive a Bachelor of Technology (Nautical Science) from CBU.

CCGC functions as a conference facility for federal and international government-sponsored events and provides a variety of customized short term training programs for government agencies.

Following training programs are offered:

There is one vessel assigned to the College:

In 2011 CCGS CG 117 and CCGS CG 118 were retired as training vessels.

These vessels are modified 44-foot Motor Lifeboat used by the Coast Guard (18 excluding these training versions) from 1966 to 1970s.

Coordinates:

Isola Obmannyj

[senza fonte]

L‘isola Obmannyj (in russo Остров Обманный, ostrov Obmannyj, in italiano „isola ingannevole“) è un’isola russa che fa parte dell’arcipelago di Severnaja Zemlja ed è bagnata dal mare di Kara.

Amministrativamente fa parte del distretto di Tajmyr del Territorio di Krasnojarsk, nel Distretto Federale Siberiano.

L’isola è situata lungo la costa occidentale dell’isola della Rivoluzione d’Ottobre, poco oltre l’imboccatura orientale del golfo Uzkij (залив Узкий, zaliv Uzkij). In particolare, si trova a circa 400 m dalla penisola Žiloj (полуостров Жилой, poluostrov Žiloj).

L’isola è di forma irregolare allungata (da nord-est a sud-ovest) con una lunghezza di 1,9 km e una larghezza di 1,6 km. Non ci sono rilievi importanti; il punto più elevato si trova nella parte meridionale e misura 15 m s.l.m. Nella stessa zona, la costa si solleva in scogliere di 6 m d’altezza. È presente una rada vegetazione tipica della tundra, con erbe resistenti e licheni.

Collège royal de Curepipe

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Le Collège royal de Curepipe est un établissement d’enseignement secondaire de garçons de la ville de Curepipe, à Maurice, inscrit à la liste des monuments protégés.

Pendant la période française, il s’appelait Collège national et était situé à Port-Louis. Lorsque l’île Maurice fut prise par les Anglais, son nom fut changé en Royal College Of Mauritius et une annexe fut ouverte à Curepipe en 1871, après l’épidémie de malaria de 1867 qui fit fuir la bourgeoisie de Port-Louis à Curepipe. Elle s’installa dans le quartier de Mare-aux-Joncs en 1888 dans de nouveaux bâtiments. Une épidémie de peste chassa la plupart des habitants de la capitale en 1899, et l’annexe devint l’antenne principale.

En 1912, l’ingénieur mauricien Paul Le Juge de Segrais, directeur des travaux publics, dessina les plans du bâtiment actuel en pierres de basalte bleu en s’inspirant du palais de Buckingham. L’édifice fut inauguré en 1914 et fut agrandi à plusieurs reprises par la suite pour pouvoir accueillir un nombre grandissant d’étudiants. Il conserva toutefois sa silhouette d’origine. En 1921, on érigea devant la façade l’imposant monument à la mémoire du soldat inconnu de la guerre 1914-1918 avec un poilu français et un tommy anglais.

Depuis la fondation du collège, l’élite du pays y a été formée. Dans le hall, les noms des lauréats sont inscrits sur des tableaux.

Entropía (información)

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como «que», «el», «a» aportan poca información, mientras que palabras menos frecuentes como «corren», «niño», «perro» aportan más información. Si de un texto dado borramos un «que», seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra «niño» del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.

El concepto entropía es usado en termodinámica, mecánica estadística y teoría de la información. En todos los casos la entropía se concibe como una «medida del desorden» o la «peculiaridad de ciertas combinaciones». La entropía puede ser considerada como una medida de la incertidumbre y de la información necesarias para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía están básicamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de la información antes de que esto fuera percibido.

La entropía de la teoría de la información está estrechamente relacionada con la entropía termodinámica. En la termodinámica se estudia un sistema de partículas cuyos estados X (usualmente posición y velocidad) tienen una cierta distribución de probabilidad, pudiendo ocupar varios microestados posibles (equivalentes a los símbolos en la teoría de la información). La entropía termodinámica es igual a la entropía de la teoría de la información de esa distribución (medida usando el logaritmo neperiano) multiplicada por la constante de Boltzmann k, la cual permite pasar de nats (unidad semejante al bit) a J/K. Cuando todos los microestados son igualmente probables, la entropía termodinámica toma la forma k log(N). En un sistema aislado, la interacción entre las partículas tiende a aumentar su dispersión, afectando sus posiciones y sus velocidades, lo que causa que la entropía de la distribución aumente con el tiempo hasta llegar a un cierto máximo (cuando el mismo sistema es lo más homogéneo y desorganizado posible); lo que es denominado segunda ley de la termodinámica. La diferencia entre la cantidad de entropía que tiene un sistema y el máximo que puede llegar a tener se denomina neguentropía, y representa la cantidad de organización interna que tiene el sistema. A partir de esta última se puede definir la energía libre de Gibbs, que indica la energía que puede liberar el sistema al aumentar la entropía hasta su máximo y puede ser transformada en trabajo (energía mecánica útil) usando una máquina ideal de Carnot. Cuando un sistema recibe un flujo de calor, las velocidades de las partículas aumentan, lo que dispersa la distribución y hace aumentar la entropía. Así, el flujo de calor produce un flujo de entropía en la misma dirección.

El concepto básico de entropía en teoría de la información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de «ruido» o «desorden» que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.

Como ejemplo, consideremos algún texto escrito en español, codificado como una cadena de letras, espacios y signos de puntuación (nuestra señal será una cadena de caracteres). Ya que, estadísticamente, algunos caracteres no son muy comunes (por ejemplo, «w»), mientras otros sí lo son (como la «a»), la cadena de caracteres no será tan „aleatoria“ como podría llegar a ser. Obviamente, no podemos predecir con exactitud cuál será el siguiente carácter en la cadena, y eso la haría aparentemente aleatoria. Pero es la entropía la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon en su artículo de 1948, („Una teoría matemática de la comunicación“, en inglés).

Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones:

Ejemplos de máxima entropía: Suponiendo que estamos a la espera de un texto, por ejemplo un cable con un mensaje. En dicho cable solo se reciben las letras en minúscula de la a hasta la z, entonces si el mensaje que nos llega es „qalmnbphijcdgketrsfuvxyzwño“ el cual posee una longitud de 27 caracteres, se puede decir que este mensaje llega a nosotros con la máxima entropía (o desorden posible); ya que es poco probable que se pueda pronosticar la entrada de caracteres, pues estos no se repiten ni están ordenados en una forma predecible.

Supongamos que un evento (variable aleatoria) tiene un grado de indeterminación inicial igual a





k




{\displaystyle k}


(i.e. existen





k




{\displaystyle k}


estados posibles) y supongamos todos los estados equiprobables. Entonces la probabilidad de que se dé una de esas combinaciones será





p


=


1



/



k




{\displaystyle p=1/k}


. Luego podemos representar la expresión






c



i






{\displaystyle c_{i}}


como:






c



i




=



log



2








(


k


)


=



log



2








[


1



/



(


1



/



k


)


]


=



log



2








(


1



/



p


)


=







log



2








(


1


)










=


0









log



2








(


p


)


=







log



2








(


p


)




{\displaystyle c_{i}=\log _{2}(k)=\log _{2}[1/(1/k)]=\log _{2}(1/p)=\underbrace {\log _{2}(1)} _{=0}-\log _{2}(p)=-\log _{2}(p)}


Si ahora cada uno de los





k




{\displaystyle k}


estados tiene una probabilidad






p



i






{\displaystyle p_{i}}


, entonces la entropía vendrá dada por la suma ponderada de la cantidad de información:





H


=







p



1





log



2








(



p



1




)







p



2





log



2








(



p



2




)






.


.


.


.







p



k





log



2








(



p



k




)


=












i


=


1




k





p



i





log



2








(



p



i




)




{\displaystyle H=-p_{1}\log _{2}(p_{1})-p_{2}\log _{2}(p_{2})-….-p_{k}\log _{2}(p_{k})=-\sum _{i=1}^{k}p_{i}\log _{2}(p_{i})}


Por lo tanto, la entropía de un mensaje





X




{\displaystyle X}


, denotado por





H


(


X


)




{\displaystyle H(X)}


, es el valor medio ponderado de la cantidad de información de los diversos estados del mensaje:





H


(


X


)


=












i




p


(



x



i




)



log



2








p


(



x



i




)




{\displaystyle H(X)=-\sum _{i}p(x_{i})\log _{2}p(x_{i})}


que representa una medida de la incertidumbre media acerca de una variable aleatoria y por tanto de la cantidad de información.

La entropía puede verse como caso especial de la información mutua. La información mutua de dos variables aleatorias, denotado por I(X;Y), es una cantidad que mide la dependencia mutua de las dos variables; es decir, mide la reducción de la incertidumbre (entropía) de una variable aleatoria, X, debido al conocimiento del valor de otra variable aleatoria, Y. De la definición podemos concluir que, si X e Y son iguales, entonces I(X;X)=H(X).

La entropía tiene las siguientes propiedades:

Un codificador óptimo es aquel que utiliza el mínimo número de bits para codificar un mensaje. Un codificador óptimo usará códigos cortos para codificar mensajes frecuentes y dejará los códigos de mayor longitud para aquellos mensajes que sean menos frecuentes. De esta forma se optimiza el rendimiento del canal o zona de almacenamiento y el sistema es eficiente en términos del número de bits para representar el mensaje.

Por ejemplo, el código Morse se aprovecha de este principio para optimizar el número de caracteres a transmitir a partir del estudio de las letras más frecuentes del alfabeto inglés. Aunque el código Morse no es un codificador óptimo, asigna a las letras más frecuente códigos más cortos. Otro ejemplo sería el algoritmo de Huffman de codificación que sirve para compactar información. Este método se basa en el codificador óptimo. Para ello lo primero que hace es recorrer toda la información para encontrar la frecuencia de los caracteres y luego a partir de esta información busca el codificador óptimo por medio de árboles binarios. Algunas técnicas de compresión como LZW o deflación no usan probabilidades de los símbolos aislados, sino que usan las probabilidades conjuntas de pequeñas secuencias de símbolos para codificar el mensaje, por lo que pueden lograr un nivel de compresión mayor.

Podemos construir un codificador óptimo basándonos en la entropía de una variable aleatoria de información X. En efecto, la entropía nos da el número medio de bits (si usamos logaritmos de base 2) necesarios para codificar el mensaje a través de un codificador óptimo y por tanto nos determina el límite máximo al que se puede comprimir un mensaje usando un enfoque símbolo a símbolo sin ninguna pérdida de información (demostrado analíticamente por Shannon), el límite de compresión (en bits) es igual a la entropía multiplicada por el largo del mensaje. Reescribiendo la ecuación de cálculo de la entropía llegamos a que:

Por lo tanto, la información (que se encuentra definida en bits, dado que la base del logaritmo es 2) que aporta un determinado valor o símbolo






x



i








{\displaystyle x_{i}\,\!}


de una variable aleatoria discreta





X






{\displaystyle X\,\!}


se define como:





I


(



x



i




)


=



log



2










1



p


(



x



i




)





=







log



2









p


(



x



i




)





{\displaystyle I(x_{i})=\log _{2}{\frac {1}{p(x_{i})}}=-\log _{2}{p(x_{i})}}


Esta expresión representa el número necesario de bits para codificar el mensaje x en el codificador óptimo y por tanto la entropía también se puede considerar como una medida de la información promedio contenida en cada símbolo del mensaje.

Supongamos que el número de estados de un mensaje es igual a 3 M1, M2 y M3 donde la probabilidad de M1 es 50 %, la de M2 25 % y la de M3 25 %.

Por tanto, en el codificador óptimo para transmitir M1 hará falta un bit y para M2 y M3 será necesario contar con dos bits. Por ejemplo, podríamos codificar M1 con „0“, M2 con „10“ y M3 con „11“. Usando este convenio para codificar el mensaje M1M2M1M1M3M1M2M3 usaríamos „010001101011“ y por tanto 12 bits. El valor de la entropía sería:

Por tanto, el codificador óptimo necesita de media 1,5 bits para codificar cualquier valor de X.

Supongamos que en vez de tener una única variable aleatoria X, existe otra variable Y dependientes entre sí, es decir el conocimiento de una (por ejemplo, Y) entrega información sobre la otra (por ejemplo, X). Desde el punto de vista de la entropía de la información podemos decir que la información de Y disminuirá la incertidumbre de X. Por tanto, podemos decir que la entropía de X será condicional a Y, y por tanto:





H


(


X


,


Y


)


=












x


,


y




p


(


x


,


y


)



log



2








p


(


x


,


y


)




{\displaystyle H(X,Y)=-\sum _{x,y}p(x,y)\log _{2}p(x,y)}


Como por el teorema de Bayes tenemos que p(x,y)=p(y)p(x|y) donde p(x|y) es la probabilidad de que se dé un estado de X conocida Y, podemos decir:





H


(


X



|



Y


)


=












y




p


(


y


)








x




p


(


x



|



y


)



log



2








p


(


x



|



y


)




{\displaystyle H(X|Y)=-\sum _{y}p(y)\sum _{x}p(x|y)\log _{2}p(x|y)}


El concepto de entropía condicional es muy interesante en el campo del criptoanálisis. Proporciona una herramienta para evaluar el grado de seguridad de los sistemas. Por ejemplo, para un sistema de cifrado hay dos entropías condicionales interesantes: Supongamos

Entonces:

Supongamos una variable X con cuatro estados:






x



1




,



x



2




,



x



3




,



x



4






{\displaystyle x_{1},x_{2},x_{3},x_{4}}


todos equiprobables y por tanto





p


(



x



i




)


=


1



/



4




{\displaystyle p(x_{i})=1/4}


. Existe además otra variable Y con tres estados;






y



1




,



y



2




,



y



3






{\displaystyle y_{1},y_{2},y_{3}}


con probabilidades





p


(



y



1




)


=


1



/



2




{\displaystyle p(y_{1})=1/2}


y





p


(



y



2




)


=


p


(



y



3




)


=


1



/



4




{\displaystyle p(y_{2})=p(y_{3})=1/4}


. Se conocen, además, las siguientes dependencias:

Aplicando las fórmulas tenemos:

En este caso el conocimiento de la dependencia de X respecto Y reduce la entropía de X de 2 a 1,5.

Un proceso estocástico





{



X



i




}




{\displaystyle \{X_{i}\}}


es una secuencia indexada de variables aleatorias. En general, puede haber dependencias entre las variables aleatorias. Para estudiar la probabilidad de cierto conjunto de valores se suele adoptar el siguiente convenio:

Sea





{



X



i





}



i


=


1


,


.


.


n






{\displaystyle \{X_{i}\}_{i=1,..n}}


un proceso estocástico de n variables aleatorias, y sea






A



n






{\displaystyle A^{n}}


el conjunto de la posibles combinaciones de valores de





{



X



i





}



i


=


1


,


.


.


n






{\displaystyle \{X_{i}\}_{i=1,..n}}


. Se define la entropía del proceso estocástico, también llamada entropía del n-grama y denotado por






H



n






{\displaystyle H_{n}}


, como:

La ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa de crecimiento de la entropía de la secuencia con el crecimiento de n.

La ratio de entropía de un proceso estocástico





{



X



i




}




{\displaystyle \{X_{i}\}}


viene definida por la ecuación:





H


(


X


)


=



lim



n















1


n





H


(



X



1




,


.


.


.


,



X



N




)




{\displaystyle H(X)=\lim _{n\to \infty }{\dfrac {1}{n}}H(X_{1},…,X_{N})}


siempre que dicho límite exista.

Karimu Hill-Harvey

Karimu Hill-Harvey is a retired Municipal Court Judge serving East Orange, Irvington and Newark, New Jersey. She remains an attorney in practice for over twenty-four [24] years.

Karimu Hill-Harvey was the first ever African-American woman to be listed in the „Top 20 Verdicts and Settlements“ in the New Jersey Law Journal for obtaining a $3.25 million settlement in Grant V. Laresca, et al. The case led to the creation of a new law, as did her work on Simmons-Dixon v. Ford Motor Corporation, and several other cases.

Hill-Harvey is admitted to the U.S. Supreme Court Bar, the U.S. Court of Appeals 3rd Circuit Bar, the U.S. District Court for the District of N.J., and the New Jersey Bar. in 2000, she completed the LL.M Trial Advocacy Program at Temple University.

An influential lawmaker, Hill-Harvey is known in New Jersey for her public work as a community organizer.

A graduate of Seton Hall University School of Law in 1983, Karimu Hill-Harvey served as an attorney in law for twenty-four years. For more than fifteen years she served as Senior Associate Counsel for the Housing Authority of the City of Newark. She also spent her time working as an arbitrator for the New York Stock Exchange, the American Arbitration Association and FINRA, the National Association of Security Dealers.

Danny Hoekman

Danny Hoekman (* 21. September 1964 in Nijmegen) ist ein ehemaliger niederländischer Fußballspieler und derzeitiger -trainer. Seine Lieblingsposition war der linke Flügel. Ende der 1980er Jahre galt er als ein großes Talent des niederländischen Fußballs und gehörte zum erweiterten niederländischen Nationalkader.

Am 15. April 1987 wurde er durch ein Foul des Torhüters Jan Willem van Ede des FC Utrecht so schwer verletzt, dass er nie wieder schmerzfrei spielen konnte und seine Karriere im Alter von 33 Jahren beenden musste. Die Prozesse endeten erst 20 Jahre später, er erhielt danach eine hohe Entschädigung. Er war der erste Fußballprofi, der von einem gegnerischen Verein für die wegen einer Sportverletzung entgangene Karriere entschädigt wurde.

Nach seiner aktiven Zeit gehörte er zum Trainerstab mehrerer Vereine aus den Niederlanden und den Golf-Staaten, zudem war er Cheftrainer einiger unterklassiger Vereine, wie den damaligen deutschen Oberligisten Bonner SC oder dem belgischen Drittligisten Racing Mechelen.

Hoekman spielte am Anfang seiner Karriere im Nachwuchs verschiedener Amateurvereine aus Nijmegen. Unter anderem war er bei der VV NDT (Voetbalvereniging NDT), der VV SJN (Voetbalvereniging SJN) und dem SCE Nijmegen im Einsatz und kam dann im Jahre 1981 zur Jugend von NEC Nijmegen, wo er bis 1983 spielt. Als Hoekman 18 Jahre alt war, bekam er ein Vertragsangebot vom englischen Verein West Ham United. 1983 kam er zu seinem ersten Einsatz in der ersten Mannschaft in der Eerste Divisie, der zweiten niederländischen Liga, in der Folgesaison 1984/85 wurde er Stammspieler, was er auch 1985/86 nach dem Aufstieg in die Eredivisie blieb. Zur Saison 1986/87 wechselte Hoekman zu Roda JC Kerkrade, wo er so gut spielte, dass er in den erweiterten Kader der niederländischen Nationalmannschaft berufen wurde und für die Folgesaison in Vertragsverhandlungen mit Ajax Amsterdam und Manchester City stand, bevor er kurz vor Ende der Saison und des Spiels bei Konkurrenten um den UEFA-Cupplatz vom Torwart des FC Utrecht brutal von den Beinen geholt wurde. Er verletzte sich am Knie so schwer, dass er für eineinhalb Jahre gar nicht mehr spielen konnte. Auch danach konnte er nur noch unter Schmerzen spielen. 1989 bei VVV Venlo und 1989–1991 beim FC Den Haag, 1991/92 versuchte er sich bei den beiden englischen Erstligisten Manchester City und FC Southampton, jedoch kam er bei Manchester City nur zu einem Einsatz, bei Southampton belegte er lediglich einen Platz auf der Ersatzbank. In England gescheitert, kehrte er zu seinem Heimatverein NEC Nijmegen zurück, wo er 1996/97 wegen der Spätfolgen der Verletzung seine Karriere beendete.

Nach seinem Rücktritt vom aktiven Fußball wurde er Sportdirektor beim Amateurclub SV Hatert aus Nijmegen. Später gehörte er zum Trainerstab verschiedener niederländischer Fußballklubs, zudem war er Cheftrainer des Bonner SC, Racing Mechelen und dem FC Hämeenlinna.

Das Verfahren Hoekmans gegen den FC Utrecht wurde wiederholt und in der Bedeutung mit der Bosman-Entscheidung verglichen.

Hoekman hat ursprünglich die Kosten für seine Behandlung und Reha-Maßnahmen selber getragen, doch nach Ende seiner aktiven Zeit 1998 verklagte er sowohl den Torwart van Ede, als auch den FC Utrecht auf Schadenersatz für die ihm entstandenen Behandlungskosten. Die Gegenseite verteidigte sich mit den Argumenten dass: 1. das Einsteigen van Edes vom Schiedsrichter nicht als Foul gewertet worden, 2. zumindest kein vorsätzlicher oder leichtfertiger Regelverstoß vorlag, 3. seien solche Fouls im Rahmen eines Fußballspiels zu erwarten und schließlich sei 4. über die Behandlungskosten kein Schaden ermittelbar. Nach Ansicht von Filmaufnahmen in Zeitlupe und einem darauf basierenden Gutachten durch den ehemaligen FIFA-Schiedsrichter Leo van der Kroft sowie die beiden ehemaligen niederländischen Nationalspieler Jan Mulder und Keje Molenaar entschied das Gericht jedoch, dass der Torwart eindeutig nur Hoekman angegangen sei, absichtlich gefoult und nicht versucht habe, eine Verletzung Hoekmans zu vermeiden. Zudem überrage das Fouls das übliche und zu erwartende Maß in einem Fußballspiel überheblich. Beide wurden zu Schadenersatz verurteilt, der FC Utrecht legte kein Rechtsmittel ein.

Seit 2003 beglich der FC Utrecht nach und nach Teile der Forderung.Zur Bestimmung der Höhe des Schadens, der vom Gericht bezüglich des Verdienstausfalls durch die verschlechterte Karriere offengelassen worden war, führte Hoekman Gespräche mit verschiedenen Fachleuten und bezifferte die Schäden durch eine kürzere aktive Zeit, geringere Gehaltszahlungen während seiner aktiven Zeit und schließlich geringere Chancen als Trainer nach seiner aktiven Zeit auf 12 Millionen Euro. Im Angesicht der dadurch drohenden Insolvenz bot Utrecht 1,5 Millionen. Nach einem Eigentümerwechsel einigten sich die Parteien später auf einen Betrag zwischen 5 und 10 Millionen Euro.

Aus zwei Gründen bekam der Fall eine ähnliche Bedeutsamkeit, wie die Bosman-Entscheidung. 1. wurde der Verein für das Fehlverhalten und den Schaden eines Spielers voll zur Verantwortung gezogen und 2. wurde die nicht gesicherte Erwerbserwartung eines Fußballspielers für die Zukunft als ersatzfähig gewertet. Hoekman wurde nicht nur der Verdienstausfall für den Rest seines Vertrages bei Roda Kerkrade zugesprochen, sondern auch die Folgeverletzungen bei anderen Vereinen und auch die nicht zustande gekommenen sonstigen Verträge.

Amore in linea

Amore in linea (The Other End of the Line) è un film commedia romantica del 2008, diretto da James Dodson e interpretato da Jesse Metcalfe e Shriya.

Priya è una ragazza indiana che lavora in un call center di Mumbai: come le sue colleghe, finge di essere americana e vivere negli Stati Uniti. Il nome con cui si presenta ai clienti è Jennifer David, la città in cui dice di abitare San Francisco.

Un giorno telefona a Granger Woodruff, un giovane pubblicitario di New York, perché dal suo conto corrente risultano pagamenti insoliti. Con Granger nasce un’intesa a distanza che si rafforza ad ogni telefonata, tanto da fissare un incontro a San Francisco, con il pretesto di valutare meglio la questione della carta di credito.

Priya, che è promessa sposa al rampollo di una facoltosa famiglia indiana, decide di volare in California; mente inoltre alla famiglia, sostenendo di recarsi a trovare una zia per il suo compleanno. Quando però intravvede Granger nel luogo dell’appuntamento – il bar del suo albergo -, la ragazza si intimidisce e abbandona il locale.

L’indomani, mentre sta ormai lasciando l’hotel si scontra casualmente con Granger, al quale si presenta con la sua vera identità, senza confidargli che lei e Jennifer sono la stessa persona. Ben presto si innamorano l’uno dell’altra, ma la situazione si complica ulteriormente quando la famiglia di Priya, scoperta la verità, giunge in America per riportarla a casa. Granger apprende dal padre della ragazza che la figlia non è altri che Jennifer David.

Dopo ulteriori incomprensioni Priya torna in India, dove trova il coraggio di opporsi al matrimonio combinato e riprende il lavoro come direttrice del personale. Granger, ormai conscio di non poter rinunciare a lei, vola a Mumbai e i due giovani coronano il loro sogno d’amore.

Nian Weisi

Nian Weisi (Cinese: 年维泗; Pechino, 11 maggio 1933) è un allenatore di calcio ed ex calciatore cinese.

Li Fenglou (1951-1952) · Joseph (1954-1956) · Dai Linjing (1957) · Chen Chengda (1958-1962) · Nian Weisi (1963) · Fang Renqiu (1964) · Nian Weisi (1965-1973) · Nian Weisi e Ren Bin (1974-1976) · Zhang Honggen (1977) · Nian Weisi (1978) · Zhang Honggen (1979) · Nian Weisi (1980) · Su Yongshun (1980-1982) · Zhang Honggen (1982) · Zeng Xuelin (1983-1985) · Nian Weisi (1985-1986) · Gao Fengwen (1986-1988) · Gutendorf (1988) · Gao Fengwen (1988-1990) · Xu Genbao e Gutendorf (1991-1992) · Schlappner (1992-1993) · Qi Wusheng (1994-1997) · Houghton (1997-1999) · Jin Zhiyang (1999-2000) · Milutinović (2000-2002) · Shen Xiangfu (2002) · Haan (2002-2004) · Zhu Guanghu (2005-2007) · Petrović (2007-2008) · Yin Tiesheng (2008-2009) · Gao Hongbo (2009-2011) · Camacho (2011-2013) · Fu Bo (2012-2014) · Perrin (2014-2016) Gao Hongbo (2016-in carica)