None
:在本地启动并运行大语言模型#工具Ollama是一款命令行工具,可在macOS和Linux上本地运行Llama2、CodeLlama和其他模型。适用于macOS和Linux,并计划支持Windows。Ollama目前支持近二十多个语言模型系列,每个模型系列都有许多可用的"tags"。Tags是模型的变体,这些模型使用不同的微调方法以不同的规模进行训练,并以不同的级别进行量化,以便在本地良好运行。量化级别越高,模型越精确,但运行速度越慢,所需的内存也越大。
:通过使用本地大语言模型(LLM),自动推荐函数名称,帮用户进行软件逆向工程核心特点离线操作:完全在本地CPU/GPU上运行LLM,确保数据隐私和安全。自动函数命名:从反编译器输出中自动建议具有语义意义的函数名称。BinaryNinja集成:作为插件与BinaryNinja无缝集成。模块化架构:专为轻松扩展而设计,以支持IDA和Ghidra等其他逆向工程工具。消费类硬件兼容性:经过优化,可在消费级硬件(例如Apple芯片架构)上运行。
🔍 发送关键词来寻找群组、频道或视频。