Leson 1Gestion des métadonnées de canal (motifs de tokens spécifiques aux canaux, encodage des métadonnées)Comprenez comment traiter les métadonnées de canal comme les chats, emails et journaux téléphoniques. Nous couvrons les motifs de tokens spécifiques aux canaux, les stratégies d'encodage et comment combiner les métadonnées avec le texte pour une modélisation plus riche.
Cataloging support channels and fieldsChannel-specific token patternsOne-hot and embedding encodingsCombining text and metadata featuresHandling missing channel metadataLeson 2Gestion et cartographie des emojis, émoticônes et tokens non standards vers des signaux de sentimentÉtudiez comment normaliser les emojis, émoticônes et autres tokens non standards tout en préservant le sentiment. Nous discutons des stratégies de cartographie, lexiques et comment intégrer ces signaux dans les modèles de sentiment et d'intention en aval.
Cataloging emoji and emoticon usageUnicode handling and normalizationMapping tokens to sentiment scoresBuilding custom emoji lexiconsIntegrating signals into modelsLeson 3Ponctuation, contractions et stratégies de tokenisation pour le texte de support en anglaisExaminez la ponctuation, les contractions et les stratégies de tokenisation pour le texte de support en anglais. Nous comparons les tokeniseurs basés sur règles et bibliothèques, gérons les cas limites et alignons la tokenisation avec les exigences des modèles en aval.
Role of punctuation in support ticketsExpanding and normalizing contractionsRule-based vs statistical tokenizersHandling URLs and emojis in tokensTokenization for transformer modelsLeson 4Stemming vs lemmatisation : algorithmes, bibliothèques et quand appliquer chacunComparez les approches de stemming et lemmatisation, incluant algorithmes et bibliothèques. Vous apprendrez quand appliquer chaque méthode dans les flux de tickets de support et comment elles affectent la taille du vocabulaire et le comportement des modèles.
Rule-based and algorithmic stemmersDictionary-based lemmatizersLibrary choices and performanceImpact on vocabulary and sparsityTask-driven method selectionLeson 5Gestion des erreurs d'orthographe, abréviations et abréviations spécifiques au domaine (correction orthographique, dictionnaires de recherche)Explorez les méthodes pour corriger l'orthographe, étendre les abréviations et normaliser les abréviations spécifiques au domaine dans les tickets. Vous combinerez correction orthographique, dictionnaires de recherche et règles personnalisées tout en évitant les changements nocifs aux entités et codes clés.
Common error types in support textDictionary and edit-distance correctionCustom domain abbreviation lexiconsContext-aware correction strategiesProtecting entities and codesLeson 6Compromis de suppression des mots vides et listes de mots vides configurables pour domaines de tickets de supportExaminez les compromis de la suppression des mots vides dans les domaines de tickets de support. Vous concevrez des listes de mots vides configurables, évaluerez leur impact sur les modèles et gérerez les mots fonctionnels spécifiques au domaine qui peuvent porter une intention subtile.
Standard vs domain stopword listsImpact on bag-of-words featuresEffect on embeddings and transformersConfigurable and layered stopword setsEvaluating removal with ablationLeson 7Fondamentaux de normalisation de texte : minuscules, normalisation Unicode, espaces et sauts de ligneCouvrez les étapes fondamentales de normalisation de texte comme la mise en minuscules, normalisation Unicode et nettoyage des espaces et sauts de ligne. Nous discutons de l'ordre des opérations, particularités spécifiques aux langues et préservation des indices de formatage importants.
Lowercasing and case preservation rulesUnicode normalization formsHandling accents and special symbolsWhitespace and linebreak cleanupOrdering normalization operationsLeson 8Stratégies de division de données : divisions basées sur le temps, échantillonnage stratifié par sujet/sentiment, et considérations de validation croisée imbriquéeÉtudiez les stratégies de division de données adaptées aux données de tickets temporelles et étiquetées. Nous comparons les divisions basées sur le temps, échantillonnage stratifié par sujet ou sentiment, et validation croisée imbriquée pour une évaluation robuste des modèles.
Holdout, k-fold, and temporal splitsStratification by topic and sentimentPreventing temporal data leakageNested cross-validation workflowsAligning splits with business goalsLeson 9Gestion des URLs, adresses email, extraits de code et identifiants dans le texte (masquage vs préservation)Apprenez les stratégies pour gérer les URLs, adresses email, extraits de code et identifiants dans le texte. Nous comparons masquage, normalisation et préservation, en nous concentrant sur confidentialité, déduplication et implications sur performance des modèles.
Detecting URLs and email patternsMasking versus normalization rulesRepresenting code snippets safelyHandling ticket and user identifiersPrivacy and leakage considerationsLeson 10Compréhension du schéma CSV et types de données (ticket_id, created_at, customer_id, text, channel, resolved, resolution_time_hours, manual_topic, manual_sentiment)Apprenez à interpréter les schémas CSV pour ensembles de données de tickets et assigner les bons types de données. Nous couvrons l'analyse des identifiants, timestamps, booléens et champs texte, plus des vérifications de validation qui préviennent les erreurs subtiles en aval.
Inspecting headers and sample rowsAssigning robust column data typesValidating timestamps and IDsDetecting malformed or mixed typesSchema validation in pipelinesLeson 11Techniques pour détecter et quantifier valeurs manquantes et bruit d'étiquettes (motifs de manquance, vérifications de cohérence d'étiquettes, métriques inter-annotateurs)Apprenez à détecter les valeurs manquantes et bruit d'étiquettes dans les ensembles de données de tickets de support. Nous couvrons les motifs de manquance, vérifications de cohérence d'étiquettes et métriques d'accord inter-annotateurs pour quantifier la qualité des étiquettes et guider les décisions de nettoyage.
Types of missingness in ticket datasetsVisualizing missingness patternsDetecting inconsistent labelsInter-annotator agreement metricsHeuristics to flag label noiseLeson 12Création de pipelines reproductibles et versionnement des ensembles de données nettoyés (contrats de données, hachage)Apprenez à construire des pipelines de prétraitement reproductibles et ensembles de données nettoyés versionnés. Nous couvrons la conception modulaire de pipelines, gestion de configuration, hachage et contrats de données qui maintiennent alignés modèles, code et données au fil du temps.
Designing modular preprocessing stepsConfiguration and parameter trackingHashing raw and processed datasetsData contracts and schema guaranteesLogging and audit trails for changesLeson 13Analyse de date/heure et gestion de fuseau horaire, dérivation de caractéristiques temporelles (période de jour, jour de semaine, récence)Comprenez comment analyser les champs de date et heure hétérogènes, gérer les fuseaux horaires et dériver des caractéristiques temporelles. Nous nous concentrons sur analyse robuste, normalisation vers temps canonique et caractéristiques dérivées comme récence et saisonnalité.
Parsing heterogeneous date formatsTimezone normalization strategiesHandling missing or invalid timestampsDeriving recency and age featuresDaypart, weekday, and seasonalityLeson 14Imputation et traitement des colonnes non-texte (resolved, resolution_time_hours, channel) pour modélisationExplorez l'imputation et prétraitement pour colonnes non-texte comme statut de résolution, temps de résolution et canal. Nous discutons stratégies d'encodage, risques de fuite et comment aligner ces caractéristiques avec le texte pour modélisation.
Profiling non-text ticket columnsImputation for numeric durationsEncoding categorical status fieldsAvoiding target leakage in featuresJoint modeling with text signals