ChatGPT-LLMISched
发表于 |更新于|GPT问答
|字数总计:14|阅读时长:1分钟|阅读量:
评论
目录
- LLMISched
- Prompt:
- Response:
- Prompt:
- Response:
- 基于LLM的汇编指令级优化
- 使用LLVM-MCA等模拟工具评估优化效果
- 结合强化学习优化代码生成
- 与编译器后端集成进行优化
- 方案可行性与研究价值评估
- Prompt:
- 基于LLM的汇编指令级优化
- 使用LLVM-MCA等模拟工具评估优化效果
- 结合强化学习优化代码生成
- 与编译器后端集成进行优化
- 方案可行性与研究价值评估
- Response:
- Prompt:
- 一、整体架构设计
- 二、具体技术路线
- 三、关键技术挑战与风险控制
- 结论
- Response:
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- 动机 (Motivation)
- 贡献 (Contributions)
- 总结
- 可能的论文标题
- Response:
- Prompt:
- 1. 数据集目标与要求
- 2. 数据来源
- 3. 数据收集流程
- 4. 数据格式设计
- 5. 数据增强与清洗
- 6. 数据应用场景
- 总结
- Response:
- Prompt:
- 问题分析
- 改进的数据集构建方法
- 5. 统一数据格式
- 总结:改进后的数据集制作方案
- 最终预期效果
- Response:
- Prompt:
- Response:
- Prompt:
- 1. 基于 LLM 的自动编译 Pass 生成
- 2. 基于神经网络的 LLVM IR 到 汇编转换
- 3. AI 生成的指令集架构 (ISA)
- 4. 自动化的超参数调优编译器
- 5. 代码自适应运行时优化 (Self-Optimizing Code)
- 6. 编译器驱动的能耗优化
- 7. 低代码/无代码编译器
- 总结
- Response:
- Prompt:
- 1. LLVM 如何做指令调度?
- 2. llvm-mca 如何仿真流水?
- 3. 为什么 LLVM 不直接用 llvm-mca 做指令调度?
- 4. 如何让 LLVM 结合 llvm-mca 进行更智能的指令调度?
- 5. 结论
- Response:
- Prompt:
- 1. LLVM 指令调度的工作方式
- 2. LLVM 为什么不直接考虑多发射(Multiple Issue)?
- 3. llvm-mca 为什么可以分析多发射?
- 4. 如何让 LLVM 考虑多发射?
- 5. 总结
- Response:
- Prompt:
- 1. 可行性分析
- 2. 详细实现方案
- 3. 实验设计
- 4. 预期贡献
- 5. 可能的论文标题
- 6. 结论
- Response:
- Prompt:
- 论文动机 (Motivation)
- 论文贡献 (Contributions)
- 论文总结
- 论文标题建议
- 下一步建议
- 最终结论
- Response:
- Prompt:
- Response:
- Prompt:
- 1. SWING Modulo Scheduling vs. llvm-mca:核心区别
- 2. SWING Modulo Scheduling (SMS) 的原理
- 3. llvm-mca 的原理
- 4. SWING vs. llvm-mca:核心问题
- 5. 结合 SWING 和 llvm-mca 进行 LLVM 调度优化
- 6. 论文方向
- 7. 结论
