martes, 1 de julio de 2014

Inteligencia Artificial y Entropía

La entropía puede ser definida como la cantidad de ‘microestados’ posibles para un ‘macroestado’ de un sistema. A la hora de cuantificar el proceso podemos calcularlo de muchas formas. Por ejemplo:
* H = k log(N), donde N es el número de microestados (equiprobables).
* H = -1*Suma (Pi log(Pi)), siendo Pi la probabilidad del microestado i-ésimo.
* H = Suma (mi*vi), donde mi y vi son la masa y velocidad de cada partícula.

Todas son equivalentes entre sí y se elige en cada caso dependiendo de los datos que disponemos en cada caso.

El concepto de "entropía a futuro" (Wissner-Gross & Freer, 2013) es cuando hacemos corresponder a la entropía en el espacio de todos los posibles futuros alcanzables (microestados), desde un estado inicial (macroestado), y asumiendo un segmento temporal (t) hacia ese futuro. El objetivo, de la programación por el método Monte Carlo de este tipo de metaheurísticos, es dar la apariencia de inteligencia en los sistemas.

Una conferencia más desarrollada, de lo que estamos describiendo, lo podemos visualizar en el siguiente vídeo en Youtube:
https://www.youtube.com/watch?v=aY7KWrWPB18


Referencias.
Wissner-Gross,A.D. & Freer,C.E. (2013).Causal Entropic Forces, Physical Review Letters, 110: 168702, 19 Apr. (formato pdf)