【KnowledgeDistillation:Huggingface的只是蒸馏

爱生活爱珂珂 2025-02-17 09:18:40

【Knowledge Distillation:Huggingface的只是蒸馏教程,介绍了如何使用知识蒸馏技术来提高 SetFit 模型的性能,特别是在有限标注数据和大量无标注数据的情况下。亮点:1. 利用知识蒸馏,仅用少量数据就能显著提升小模型性能,比如从78.18%提升到80.84%;2. 支持零样本学习,无需大量标注数据;3. 高效适配多种NLP任务,如文本分类、情感分析等】

'SetFit: Efficient few-shot learning for textification'

0 阅读:0
爱生活爱珂珂

爱生活爱珂珂

感谢大家的关注