Archive 2015 年 8 月 25 日

乱谈池化算法

  在提取信息的时候,在池化的时候,如果取区域均值(mean-pooling),往往能保留整体数据的特征,能凸出背景的信息,而如果取区域最大值(max-pooling),则能更好保留纹理上的特征,但这些应该都不如小波变换那样,可以保留更多的细节特征,整体上也应该更加细微。   在ICLR2013上,Zeiler提出了stochastic pooling,元素值大的被选中的概率也大,但不是像max-pooling那样总是取最大值,这种方法的优势是,一方面最大化保证了Max值的取值,一方面又部分确保不会所有元素都被max值给忽悠住,造成过度失真。   这种方式想来还是有缺陷的,因为这种随机行挑选尽管有概率倾向,但它是人为叠加上的,无法总是保证一定随机的概率选择中能够选择到更好的结果,所以也会出现更糟糕的结果的时候,不过加入概率算法好处是,它为产生更好的结果产生了可能,所以总的来说,还是有可能得到更好的结果的。   假设目标总是容易被命中的,而有那么个正态分布与目标的分布是近似重合的,如何保证这种分布比较能吻合目标?平均值与最大值都会产生偏移,因为毕竟太暴力了,而概率算法加入无疑是比较理想的,能减少这种偏移的可能,如果运气足够好,收敛会非常好,那么还有可能得到更加贴近的结果,于是这个又扯到了运气上来了。   只是,术数里的收敛为何能那么准确,这个从数学角度实在是难解,究竟是什么没有考虑到?目前有一种隐隐地思路,需要探索以术数的模型套上去,只是还是没有找到桥梁在哪里,第一是要找出,信息是如何演算并折叠在卦中的,第二是要找出如何还能够把信息进行还原。   在尝试计算了近十万个图形与随机起卦之间的联系后,发现要建立这个联系,是极难完成的任务,制作自动编码器运算到一定程度收敛越来越慢,随便估计也是要花上个几个月的(还不一定最后算得出来),想来还是思路有问题。   路漫漫其修远兮。

Read More

术数模型中是如何压缩信息

  本文皆是废话随笔充数,不必阅读。   仅仅从卦上来了解事物的话,很容易遇到一个问题,既然卦是事物的抽象,那么如此能够保证卦是能够完美表现细节,或者能真正勾勒出事物最重要的主线?   这其中必然有卦的信息压缩存在,所以解卦的时候,是把这种压缩的信息进行释放。   这种压缩,包括单纯的卦,卦与卦爻之间的关系,而卦与卦之间,一种是384中变化,而事物如此多的种类,其微妙之处必不是仅仅384中变化能够完全表达的。   但事实占卦又证明,卦上立太极可以无处不占,这说明卦中的信息并不是只有一层的压缩,而是有各种释放的方法。   典型如八字,对其将信息进行释放,是通过排大运流年,然后综合来进行,本质上它们还是由时间排出,但引入了节气的节点后,这个大运流年的排列就引申出来了更多的意义,于是虽然是八字,实际上阴阳不同,大运不同,同一个八字会被分裂成两种解读模型。   换而言之,其实任何一种术数都是对信息的提炼。   现在的问题是,这种信息压缩的模式非常艰涩,很难用数学的方式去描述出来。   应该如何办呢?

Read More