跳到内容

Frank

  • Home
  • Blog
  • Contact
  • About
Frank
  • 成长

    使用python脚本连接colab

    作者Frank 19 11 月, 202519 11 月, 2025

    局域网python调用 在colab中使用交互式 推荐使用 llama-server 方法。那不仅能体验流畅的…

    阅读更多 使用python脚本连接colab继续

  • 成长

    colab编译llama.cpp部署llama大模型总结

    作者Frank 19 11 月, 202519 11 月, 2025

    colab可以用来做什么: 可以当做高RAM,高性能的linux主机,同时可以按需求调整硬件为GPU模式

    阅读更多 colab编译llama.cpp部署llama大模型总结继续

  • 成长

    有用的linux bash命令

    作者Frank 19 11 月, 202519 11 月, 2025

    在/content/llama.cpp目录中查找名字为index.html的文件,并且只保留路径中包含“ser…

    阅读更多 有用的linux bash命令继续

  • 成长

    Colab调试llama.cpp遇到的一些问题

    作者Frank 19 11 月, 202521 11 月, 2025

    执行如下命令:!mkdir build%cd build!cmake .. -DGGML_CUDA=ON!cm…

    阅读更多 Colab调试llama.cpp遇到的一些问题继续

  • 成长

    llama.cpp 项目刚刚完成了构建系统的重大迁移。

    作者Frank 19 11 月, 202519 11 月, 2025

    FYI 3. 为什么他们要换成 CMake? 既然你关注架构设计,这背后的原因主要有三点: 你可以现在尝试运行…

    阅读更多 llama.cpp 项目刚刚完成了构建系统的重大迁移。继续

  • 成长

    Q4_K_M

    作者Frank 19 11 月, 202519 11 月, 2025

    参考Gemini对话Colab 编译 llama.cpp GPU 加速

    阅读更多 Q4_K_M继续

  • 成长

    Ollama llama.cpp Meta-llama

    作者Frank 19 11 月, 202519 11 月, 2025

    Meta-llama is a LLM created by Meta LTD. llama.cpp is a…

    阅读更多 Ollama llama.cpp Meta-llama继续

  • 成长

    Colab部署llama.cpp总结

    作者Frank 19 11 月, 202519 11 月, 2025

    Gemini对话:Colab 编译 llama.cpp GPU 加速 准备工作: 启用GPU,查看GPU是否正…

    阅读更多 Colab部署llama.cpp总结继续

  • 成长

    AI模型搭建小结

    作者Frank 18 11 月, 202518 11 月, 2025

    不要企图在windows系统中build大模型,尤其是公司限制不让使用visual studio工具链。

    阅读更多 AI模型搭建小结继续

  • 成长

    AI技术汇总

    作者Frank 17 11 月, 202518 11 月, 2025

    模型量化 训练优化 梯度 神经网络 手搓llama.cpp / GGUF格式 / GGML / 什么是llam…

    阅读更多 AI技术汇总继续

页面导航

上一页上一页 1 2 3 4 5 6 … 11 下一页下一页

© 2026 Frank Kadence WP 制作的 WordPress 主题

  • Home
  • Blog
  • Contact
  • About