บทเรียนที่ 1Thresholding และนโยบายการตัดสินใจสำหรับ production (threshold ต่อคลาส, cost-sensitive thresholds)ส่วนนี้มุ่งเน้นการเปลี่ยนคะแนนโมเดลเป็นการตัดสินใจหัวข้อสุดท้าย คุณจะเรียนรู้ threshold ทั่วไปและต่อคลาส การปรับ cost-sensitive การตั้งค่านโยบายที่คำนึงถึง calibration และการออกแบบกฎการตัดสินใจที่พร้อม production
จาก probabilities สู่การตัดสินใจแบบ hardGlobal เทียบกับ per-class thresholdingการปรับ threshold แบบ cost-sensitiveนโยบายการตัดสินใจที่คำนึงถึง calibrationกฎ escalation แบบ human-in-the-loopบทเรียนที่ 2Baseline classifiers: logistic regression, linear SVM กับ TF-IDF — hyperparameter tuning และ regularizationสร้าง baseline เชิงเส้นที่แข็งแกร่งสำหรับการจำแนกหัวข้อ เราแนะนำคุณสมบัติ TF-IDF กับ logistic regression และ linear SVMs หารือ regularization และแสดงวิธีการปรับ hyperparameters สำหรับโมเดลที่แข่งขันได้และตีความได้
การสร้าง representations คุณสมบัติ TF-IDFLogistic regression สำหรับป้ายกำกับหัวข้อLinear SVMs และ intuition marginผลกระทบ L1 เทียบกับ L2 regularizationHyperparameter tuning สำหรับ baselineบทเรียนที่ 3Explainability และ interpretability: สัมประสิทธิ์คุณสมบัติ, LIME/SHAP, การแสดงภาพ attention, และคำอธิบายแบบตัวอย่างรับเครื่องมือในการตีความตัวจำแนกหัวข้อสำหรับผู้มีส่วนได้ส่วนเสีย เราได้ครอบคลุมสัมประสิทธิ์โมเดลเชิงเส้น คำอธิบาย LIME และ SHAP การแสดงภาพ attention สำหรับ transformers และการให้เหตุผลแบบตัวอย่างเพื่อ debug และสร้างความเชื่อมั่น
การตีความสัมประสิทธิ์โมเดลเชิงเส้นLIME สำหรับคำอธิบายข้อความ localSHAP values สำหรับ insights ทั่วไปการแสดงภาพ attention ใน transformersคำอธิบายแบบตัวอย่างและ counterfactualบทเรียนที่ 4โมเดลต้นไม้และ ensemble baseline: random forest, XGBoost บน TF-IDF หรือ embedding averagesสำรวจ baseline แบบต้นไม้และ ensemble สำหรับหัวข้อ เราได้ครอบคลุม random forests และ gradient boosting เช่น XGBoost บน TF-IDF หรือ embedding averages หารือจุดแข็ง จุดอ่อน และเมื่อใดที่ชนะโมเดลเชิงเส้น
อินพุต TF-IDF และ embedding averageRandom forest สำหรับหัวข้อข้อความพื้นฐาน gradient boosting และ XGBoostการจัดการ sparsity และ overfittingการเปรียบเทียบ ensembles กับโมเดลเชิงเส้นบทเรียนที่ 5การเลือกโมเดลและการค้นหา hyperparameter: grid/random search, Bayesian optimization, และการประเมินบน validation/test splitsเข้าใจวิธีการเลือกโมเดลหัวข้อที่แข็งแกร่งผ่านการค้นหาที่มีหลักการ เราเปรียบเทียบ grid และ random search แนะนำ Bayesian optimization และแสดงวิธีการออกแบบ validation และ test splits ที่หลีกเลี่ยงการรั่วไหลและ overfitting
การกำหนด search spaces และ budgetsการแลกเปลี่ยน grid search เทียบกับ random searchBayesian optimization สำหรับโมเดล NLPการออกแบบ validation และ test splitsEarly stopping และการควบคุม overfittingบทเรียนที่ 6Multi-label เทียบกับ single-label setup: การจัดการตั๋วที่เป็นสมาชิกหลายหัวข้อและกลยุทธ์การเข้ารหัสป้ายกำกับเรียนรู้เมื่อใดควรใช้ single-label หรือ multi-label สำหรับหัวข้อ เราได้หารือการกำหนดกรอบปัญหา รูปแบบการเข้ารหัสป้ายกำกับ ฟังก์ชัน loss และการจัดการตั๋วที่เป็นสมาชิกหลายหัวข้อตามธรรมชาติใน production
การกำหนดกรอบปัญหาและการวิเคราะห์ความต้องการOne-hot, multi-hot, และ label indexingฟังก์ชัน loss สำหรับเอาต์พุต multi-labelการจัดการหัวข้อที่ทับซ้อนและลำดับชั้นการประมวลผลหลัง multi-label predictionsบทเรียนที่ 7การจัดการ class imbalance: resampling (oversample, undersample), class weighting, focal loss, ตัวอย่างสังเคราะห์ (augmentation)เรียนรู้การจัดการ class imbalance ในชุดข้อมูลหัวข้อ เราเปรียบเทียบกลยุทธ์ resampling การถ่วงน้ำหนักคลาส focal loss และ data augmentation สังเคราะห์ โดยเน้นเมื่อใดที่แต่ละวิธีช่วยและวิธีหลีกเลี่ยง bias ที่เป็นอันตราย
การวัดและแสดงภาพ imbalanceRandom over- และ under-samplingการถ่วงน้ำหนักคลาสในฟังก์ชัน lossFocal loss สำหรับตัวอย่าง minority ที่ยากText augmentation และ synthetic samplesบทเรียนที่ 8การจัดการ manual_topic labels ที่ noisy หรือขาดหาย: weak supervision, label smoothing, confident learning, และ semi-supervised learningสำรวจกลยุทธ์สำหรับป้ายกำกับหัวข้อที่ noisy หรือขาดหาย ส่วนนี้解释 weak supervision, label smoothing, confident learning, และวิธี semi-supervised เพื่อใช้ประโยชน์จากข้อมูลที่ไม่มีป้ายกำกับในขณะที่จำกัดการแพร่กระจายข้อผิดพลาด
แหล่งที่มาและรูปแบบ噪音ป้ายกำกับWeak supervision ด้วยกฎ heuristicLabel smoothing สำหรับการฝึกที่แข็งแกร่งConfident learning และการตัดแต่งป้ายกำกับSemi-supervised learning ด้วย pseudo-labelsบทเรียนที่ 9เมตริกการประเมิน: accuracy, precision/recall, micro vs macro F1, per-class F1, confusion matrix, และการวิเคราะห์ calibrationเชี่ยวชาญเมตริกการประเมินสำหรับโมเดลหัวข้อ เราได้ครอบคลุม accuracy, precision, recall, micro และ macro F1, per-class F1, confusion matrices, และการวิเคราะห์ calibration อธิบายวิธีการเลือกเมตริกที่สอดคล้องกับเป้าหมายธุรกิจ
Accuracy เทียบกับ precision และ recallMicro, macro, และ weighted F1 scoresPer-class F1 และการวิเคราะห์หัวข้อหายากการอ่านและใช้งาน confusion matricesCalibration curves และ reliability plotsบทเรียนที่ 10Transformer-based classification: fine-tuning BERT/RoBERTa/XLM-R สำหรับ multi-class topic labels — สถาปัตยกรรมและ hyperparametersเจาะลึกการจำแนกหัวข้อแบบ transformer เรา解释 สถาปัตยกรรมแบบ BERT การจัดรูปแบบอินพุต การ fine-tuning สำหรับเอาต์พุต multi-class หรือ multi-label และ hyperparameters สำคัญที่ส่งผลต่อประสิทธิภาพและความเสถียร
สรุปสถาปัตยกรรม transformer encoderTokenization, truncation, และ segment IDsClassification heads และตัวเลือก poolingKey fine-tuning hyperparametersการปรับตัวโดเมนและ continued pretrainingบทเรียนที่ 11กลยุทธ์ cross-validation สำหรับข้อมูลที่คำนึงถึงเวลาและ stratified folds สำหรับหัวข้อที่ไม่สมดุลเข้าใจการตรวจสอบที่แข็งแกร่งสำหรับโมเดลหัวข้อ ส่วนนี้ครอบคลุม splits ที่คำนึงถึงเวลาที่เคารพ temporal drift, stratified folds สำหรับหัวข้อที่ไม่สมดุล และ cross-validation schemes เชิงปฏิบัติสำหรับประมาณการประสิทธิภาพที่สมจริง
Temporal drift และความเสี่ยง data leakageTime-based train-validation splitsStratified k-fold สำหรับป้ายกำกับที่ไม่สมดุลNested cross-validation สำหรับการปรับโมเดลCV ที่มีประสิทธิภาพกับชุดข้อมูลข้อความขนาดใหญ่บทเรียนที่ 12โครงสร้างพื้นฐานการฝึก: ความต้องการ GPU, mixed precision, batch sizes, gradient accumulation, และ checkpointingเรียนรู้การออกแบบการตั้งค่าการฝึกที่มีประสิทธิภาพสำหรับโมเดลหัวข้อ เราได้ครอบคลุมการวางแผน GPU และหน่วยความจำ mixed precision การกำหนดขนาด batch gradient accumulation checkpointing และเคล็ดลับเชิงปฏิบัติเพื่อรักษาการรันให้เสถียรและทำซ้ำได้
การประมาณความต้องการ GPU และหน่วยความจำMixed precision และ numerical stabilityการเลือกขนาด batch และ gradient accumulationCheckpointing, resuming, และ versioningการแลกเปลี่ยน throughput, latency, และต้นทุน