LLM 处理多模态是问题。然后多模态就被解决了。LLM 实在是容易 token 超长,然后 RAG 和超长 token 就出现了。LLM 的再训练太麻烦,没有长期记忆,不会持续学习,然后 HOPE 就出现了。。。神经网络的优化潜力,是非常非常高的。开源世界一定会跟进 HOPE 。我相信模型现在还是处于非常早期的阶段。最多最多,类似于智能手机大潮中,Palm 或者 黑莓的阶段。iPhone 还没有出现。
LLM 处理多模态是问题。然后多模态就被解决了。LLM 实在是容易 token 超长,然后 RAG 和超长 token 就出现了。LLM 的再训练太麻烦,没有长期记忆,不会持续学习,然后 HOPE 就出现了。。。神经网络的优化潜力,是非常非常高的。开源世界一定会跟进 HOPE 。我相信模型现在还是处于非常早期的阶段。最多最多,类似于智能手机大潮中,Palm 或者 黑莓的阶段。iPhone 还没有出现。