Modele de billet
Au lieu de se cacher, de réduire, de dissimuler ou de s`éloigner de ces aspects de leurs apparences, ces modèles ont choisi d`utiliser ce qui les rend différents de leur avantage, plutôt que d`essayer d`être comme tout le monde. Il s`avère, célébrant et soulignant ce qui vous rend différent ou unique comme un modèle est ce qui vous fera vous démarquer et être mémorable! Il est difficile de dire si ces modèles auraient eu le même cheminement de carrière et de succès s`ils n`embrassaient pas leurs différences, mais il n`a certainement pas blessé leur carrière! La figure 4, ci-dessus, représente le flux de ce pipeline. Composé de six emplois au total, il utilise les API existantes de Michelangelo pour recycler le modèle. Ces travaux forment un graphe orienté acyclique (DAG) avec la dépendance indiquée par les flèches: Idéalement, nous voulions tirer parti de Spark pour les transformations de la PNL d`une manière distribuée. Les calculs Spark sont généralement effectués à l`aide de clusters CPU. D`autre part, la formation d`apprentissage profond fonctionne plus efficacement sur une infrastructure basée sur GPU. Pour répondre à cette dualité, nous devions trouver un moyen d`utiliser à la fois les transformations Spark et la formation GPU, ainsi que de construire un pipeline unifié pour la formation et le service du modèle d`apprentissage profond. Compte tenu de la forte performance de nos modèles d`apprentissage profond dans COTA v2, nous prévoyons d`utiliser les prédictions de type de problème à l`avenir pour déterminer quel agent de support client pour acheminer un ticket donné à, puisque ces agents possèdent généralement une expertise dans un ensemble spécifique de types de problèmes. Ces mises à jour augmenteront notre probabilité d`identifier le bon agent pour résoudre un ticket lors du premier routage, améliorant ainsi l`efficacité de l`ensemble du système de support des tickets.
Sur la base de ces exemples et beaucoup plus, l`apprentissage profond semblait être un choix naturel pour le développement de COTA v2. En effet, grâce à des expériences hors ligne, nous avons constaté que les modèles d`apprentissage profond pouvaient fournir des prédictions de résolution de tickets beaucoup plus précises par rapport à COTA v1. En concevant notre DLSP, nous voulions assigner des tâches aux CPU et aux GPU en fonction du matériel le plus efficace. La définition du pipeline en deux étapes, l`une pour le pré-traitement Spark et l`autre pour l`apprentissage profond, semblait être la meilleure façon d`allouer la charge de travail. En étendant le concept d`un pipeline Spark, nous pouvons servir des modèles pour la prédiction par lots et les services de prédiction en temps réel à l`aide de notre infrastructure existante. Pour valider les performances des modèles d`apprentissage en profondeur COTA v2 que nous avons observés hors ligne, nous avons effectué un test en ligne avant de déployer le système. La durée moyenne de la poignée par ticket est beaucoup plus faible pour le groupe de traitement tout au long de la phase de test A/B, comme illustré à la figure 6 (b).