以目标为驱动,以基本的对话逻辑为基础,引导用户对话在限定范围内,便于高效理解用户意图;
在保持大体对话逻辑在限定范围基础上,允许用户口语化的、短暂的跑题,此时支持闲聊模式;
较为灵活地支持用户对以提供的关键信息进行修正;针对客户业务特点建立模型;
采用变革的深度语义分析模型。
以状态机来构建多轮交互逻辑。
具备自学习功能。
能够实现半开放式的多轮问答,并捕捉用户的精确意图,是目前灵活性与解析准确性平衡的最好的一种架构。
反向问答语义解析网络,利用网络而不是规则来解析用户给出的答案。
采用BERT架构,核心思想是迁移学习,可以将其他领域的知识迁移过来;此外,BERT利用的Transformer作为最基本的隐层语义向量学习单元,已经在几乎所有的NLP任务上打败了LSTM。