使用 SHAP(SHapley 加性解释)的模型可解释性和可说明性。当解释机器学习模型预测、计算特征重要性、生成 SHAP 图(瀑布图、蜂群图、柱状图、散点图、力导向图、热力图)、调试模型、分析模型偏差或公平性、比较模型或实现可解释人工智能时,使用此技能。适用于树基模型(XGBoost、LightGBM、随机森林)、深度学习(TensorFlow、PyTorch)、线性模型以及任何黑盒模型。
无需复杂配置,快速集成到您的工作流
来自活跃的开源社区,持续更新维护
MIT/Apache 许可,商用个人均可使用
可根据需求自定义和扩展功能
从源仓库下载或复制 skill 文件到您的项目中。
将 skill 文件放置到 Claude 的 skills 目录中(通常是 ~/.claude/skills/)。
重启 Claude 或运行重载命令,skill 将自动加载并可供使用。
提示: 首次使用前请仔细阅读 skill 的文档和代码,确保理解其功能和权限要求。
所有 Skills 来自开源社区,保留原作者版权
K-Dense-AI__claude-scientific-skills/scientific-skills/shap/SKILL.md经过验证的优势和可衡量的影响
通过快速复合查询,将确认靶点活性的时间缩短一半。
通过结构化数据访问,将识别有前景的先导化合物的速度提升三倍。
通过优先处理预测成功率更高的化合物来降低实验成本。
适用于以下场景
利用生物活性数据,为特定蛋白质靶点发现高亲和力抑制剂。
分析构效关系,以优化先导化合物,用于药物开发。
筛选分子库,以获得所需的药理学特性和活性谱。
确定现有药物对新疾病靶点的潜在功效。