你问:
- 正如作者建议的那样,这真的可行吗?根据该论文,它们的结果非常有效,并且始终将数据压缩为较小的大小。字典的大小会不会很大?
当然是。即使是他们亲自挑选的示例(“懒惰的狗上快速的银色狐狸跳”),也无法实现压缩,因为字典包含了文本的每个4字节子字符串(对于“ THE“)...,文本的”压缩“版本必须包括整个词典以及所有这些素数废话。
- 难道不能使用同一算法来迭代地重新压缩压缩数据吗?很明显,并且已经证明,这种技术(压缩的数据被尽可能多地重新压缩,从而大大减小了文件的大小)是不可能的。实际上,在所有随机数据的集合和压缩数据之间不会存在双射。那么为什么会有这种感觉呢?
同样,您似乎对这种情况有很好的直观了解。您已经直观地意识到,没有一种压缩方案可以对所有输入都有效,因为如果可以的话,我们可以一遍又一遍地应用它来将任何输入压缩到一个位,然后再压缩为零。
换句话说:将所有.wav文件压缩为.mp3后,通过压缩文件将不会对文件大小有所改善。如果您的MP3压缩器完成了工作,则ZIP压缩器将没有任何可利用的模式。
(同样适用于加密:如果我采用零文件并根据我选择的加密算法对其进行加密,则生成的文件最好不可压缩,否则我的加密算法会将“模式”泄漏到其输出中!)
- 即使该技术尚不完善,也显然可以对其进行优化和大力改进。为什么没有对此进行更广泛的了解/研究?如果确实这些主张和实验结果是正确的,那么这将不会给计算带来革命性的变化?
这些说法和实验结果都不正确。
当汤姆范德Zanden已经指出的那样,Chakraborty的,嘉和Guchait的“压缩算法”,因为是有缺陷的,不仅它起不到任何的压缩比,也是不可逆的(在mathspeak“而不是双射”):有全部都“压缩”到同一图像的大量文本,因为它们的算法基本上是乘法,并且乘法是可交换的。
您对这些概念的直观理解会立即使您得出正确的结论。而且,如果您可以节省时间,那么您应该为论文的作者感到可惜,因为他们显然花了很多时间来思考该主题,而根本不了解它。
在您发布的URL上方一层的文件目录中包含139种相同质量的“论文”,这些论文显然被“计算,信息,通信和应用新兴研究国际会议论文集”所接受。这似乎是通常的假会议。这样的会议的目的是允许欺诈性的学者声称“发表在期刊上”,同时也允许不道德的组织者赚大钱。(有关假会议的更多信息,请查看此reddit主题或有关此主题的StackExchange各种帖子。)假会议在每个领域中都存在。只要学会相信自己的直觉,而不要相信您在“会议录”中阅读的所有内容,您会做的很好。