简明数据科学 第四部分:简单线性回归模型

作者:TalkingData 张永超

在此系列之前的文章(见文末)中,已经讨论了关于统计学习的关键概念和假设验证相关内容。在本篇内容中,将进入线性回归模型的讨论。

在开始之前,回顾一下之前统计学习中比较重要的几个关键点:

自变量和因变量:

在统计学习的背景下,有两种类型的数据:

  • 自变量:可以直接控制的数据。
  • 因变量:无法直接控制的数据。

无法控制的数据,即因变量需要预测或估计。

模型:

模型本质上就是一个转换引擎,主要的作用就是找到自变量和因变量之间的关系函数。

参数:

参数是添加到模型中用于估计输出的一部分。

基本概念

线性回归模型提供了一个监督学习的简单方法。它们简单而有效。

但是,到底什么是线性

线性意味着:数据点排列在或者沿着一条直线或者接近直线的线排列。线性表明,因变量和自变量之间的关系可以用直接表示。

回顾高中时的数学课程,一条直线的方程式是什么呢?

y = mx + c

线性回归只不过是这个简单方程的表现。

上述公式中:

  • y是因变量,是需要估计或者预测的变量
  • x是自变量,是可控的变量,在这里属于输入变量
  • m是斜率,体现了直线的倾斜程度,一般使用符号β表示
  • c是截距,当x为0时,确定y值的一个常数

线性回归模型并不是完美的,它试图以直接来逼近自变量和因变量之间的关系。而近似总会导致错误,并且一些错误是无法避免的,是问题性质本身所固有的,这些错误无法消除,称之为不可简化的错误,真正的关系中,总是具有一定的噪声项,并且是任何模型无法减少的。

上述直接公式因此可以重写为:

Markdown

  • β0和β1是代表截距和斜率的两个未知常数。他们是参数。
  • ε是误差项。

简述

下面通过一个例子来说明线性回归模型的术语和工作原理。

费尔南多是一名数据科学家,他想要买一辆车。他想估计或者预测他最终必须支付的汽车价格。正好他有一个朋友在一家汽车经销商上班,费尔南多向这位朋友咨询了各种其他汽车的价格以及汽车的一些特点,他的朋友向他提供了如下的一些信息:

Markdown

  • make: 车辆品牌
  • fuelType:所使用的动力燃料
  • nDoor:车门数量
  • engineSize:发动机大小(马力)
  • price:最终的价格

首先,费尔南多希望评估他是否可以根据发动机大小预测汽车价格。第一组分析旨在回答以下问题:

  • 汽车价格与发动机大小有关吗?
  • 这种关系有多强?
  • 关系是线性的吗?
  • 我们可以根据发动机大小预测/估算汽车价格吗?

费尔南多进行了相关分析,相关性是衡量两个变量相关的程度。它是通过称为相关系的度量来衡量的,值在0和1之间。

如果相关系数是一个较大的数,例如 0.7 以上的数,则意味着随着一个变量的增加,另一个变量也会增加。也就说,相关系数体现了变量间“同向变化”情况。

费尔南多做了一些相关性的分析,绘制出了价格与发动机大小之间的关系。

他将数据集分割成了训练和测试两部分,其中75%的数据作为训练使用,剩下的作为测试来用。

他使用了一些统计性软件包构建了一个线性回归模型,该模型本身找到了汽车的价格和发动机大小间的关系,由此创建了一个线性方程。

Markdown

有了这个模型之后,就可以回答费尔南多想了解的几个问题了:

  • 汽车价格与发动机大小有关吗?
  • 是的,它们之间是有关系的。
  • 这种关系有多强?
  • 它们间的相关系数为0.872。是一种很强的关系。
  • 关系是线性的吗?
  • 存在一条直线可以拟合。一个良好的价格预测可以由发动机大小来决定。
  • 我们可以根据发动机大小预测/估算汽车价格吗?
  • 可以。

对于价格和发动机大小的关系显而易见,其实这个模型的最终表达式也很简单,如下:

price = β0 + β1 x engine size

模型构建与解释

模型

在上述内容中,原始数据集按照一定的比例进行了分割,产生训练集和测试集两大部分,训练集被用于学习或者找规律,最终创建模型,测试集被用于评估模型的性能。

费尔南多将数据集分割成了训练和测试两部分,其中75%的数据作为训练使用,剩下的作为测试来用。他使用了一些统计性软件包构建了一个线性回归模型,该模型本身找到了汽车的价格和发动机大小间的关系,由此创建了一个线性方程。

Markdown

通过从训练数据集上进行学习训练,费尔南多得到了如下的一些结果:

Markdown

对于最终的模型来说,其估计参数值为:

  • β0:-6870.1
  • β1:156.9

从而得到线性方程为:

price = -6870.1 + 156.9 x engine size

解释

Markdown

该模型最终提供了在特定发动机大小的情况下预测汽车平均价格的方程式,也就意味着:

发动机的大小增加一个单位,将使得汽车的平均价格提高156.9个单位。

评估

模型创建好了,但是模型的稳健性还需要评估。我们如何确定该模型能够预测令人满意的价格?这项评估分两部分完成。首先,测试模型的鲁棒性。其次,评估模型的准确性。

费尔南多首先在训练数据上评估模型,他得到了如下的统计数据:

Markdown

有很多的统计数据,当前仅关注红色框标注的部分,在假设检验章节中有过讨论,使用假设检验评估模型的稳健性。

H0 和 Ha需要被首先定义,如下:

  • H0(空假设):x 和 y 之间没有任何关系,即发动机的大小和车辆价格没有关系;
  • Ha(替代假设):x 和 y 之间存在某种关系,即发动机大小和车辆价格之间存在关系。

β1:β1 的值决定了价格和发动机大小之间的关系。如果 β1 = 0,则他们之间没有关系,否则存在关系。而从上述得到的参数中可知,β1 = 156.933,说明到价格和发动机大小之间存在某种关系。

t-stat:t-stat值是系数估计值(β1)远离零点的标准差。其值越远离零越强化价格和发动机大小间的关系,从上述参数中可以看到t-stat是21.09。

p-value:p值是一个概率值。它表示在空假设为真的情况下得到给定t-statistics的机会。如果p值小,例如<0.0001,这意味着这是偶然的并且没有关系的概率非常低。在这种情况下,p值很小。这意味着价格和引擎之间的关系并非偶然。

通过这些指标,可以得到的结论是:空假设完全不存在,并且接受替代假设。车辆的价格和发动机大小之间存在着稳定的关系。

这种关系已经确定,但是其精度如何呢?为了能够感受模型的准确度,一个名为R-squared或者决定系数的度量非常重要。

R平方或确定系数:为了理解这些指标,首先将其分解其组成部分。

Markdown

  • 误差(e)是实际y与预测y之间的差异。预测的y表示为ŷ。每个观察都会评估这个错误。这些错误也称为残差。
  • 然后将所有残差值平方并相加。这个术语被称为残差平方和(RSS)。RSS越低越好。
  • R-squared的另一部分方程。为了得到另一部分,首先计算实际目标的平均值,即估计汽车价格的平均值。然后计算平均值和实际值之间的差异。然后将这些差异平方并添加。它是总和的平方(TSS)。
  • R-squared a.k.a决定系数计算为 1- RSS / TSS。该度量解释了模型预测的值与实际值平均值之间的差异部分。该值介于0和1之间。它越高,模型可以更好地解释方差。

在上面的例子中,RSS是根据三辆车的预测价格计算出来的。 RSS值是41450201.63。实际价格的平均值是11,021。 TSS计算为44,444,546。 R平方计算为6.737%。对于这三个具体数据点,该模型只能解释6.73%的变化。还不够好!!

但是,对于费尔南多的模型来说,其训练集的R平方为0.7503,即75.03%。这意味着该模型可以解释更多75%的变化。

结语

费尔南多现在有一个很好的模型。它在训练数据上表现令人满意。但是,有25%的数据没有得到解释。有改进的余地。如何增加更多的自变量来预测价格?当添加多于一个独立变量以预测因变量时,需要创建多变量回归模型,即多于一个变量的模型 —- 多元回归模型。

相关阅读

解决数据科学一公里问题-Clipper简介

对于数据科学问题来讲,我们面临的挑战是什么? 是数据准备?是特征选取?还是算法选择?这些固然都很重要,但真正的挑战在于如何将构建好的模型应用于生产,高效的运行并产生价值。也就是如何有效解决数据科学最后一公里的问题。

随着智能数据时代的到来,越来越多的企业都开始建立自己的数据管理平台,建立自己的数据科学团队,期望结合自身的业务场景,构建解决业务问题的模型。随着数据科学工作的开始,大家往往都会面临一个问题,就是如何能够高效的将训练好的模型推到生产环境,也就是前面提到的数据科学的最后一公里的问题。在我们接触的很多客户中,模型生产化是大家普遍拥有的共性问题,我们需要给客户提供这种能力,让客户将训练好的模型能够自动部署到生产,并且方便的被使用,从而真正兑现模型的价值。

这个关于数据科学的挑战,并非偶然,UC Berkley的RISELab(AMPLab的继承者)也发现了这个问题,并且开源了应对该问题的项目-Clipper(快船)。

Clipper是什么?

从Clipper的官网上来看,Clipper对自己的定位是:面向客户应用和机器学习模型与常用框架之间的一套预测服务系统。

另外,Clipper支持数据科学家在不改变代码的前提下,将训练代码直接部署到生产环境中。

Clipper的特性

对于数据科学家在选定的框架上训练的模型,通过几行代码就可以部署到一个现存的模型容器上,或者开发自己的模型容器;

  • 对于正在运行的应用,可以非常容易的更新和回滚模型;
  • 可以设定服务的延迟目标,从而保证可靠的查询延迟;
  • 每个模型都运行在一个独立的Docker容器上,从而实现简单的集群管理和资源分配;
  • 可将模型运行在CPU、GPU或者同时运行在二者之上;

Clipper的架构

在Clipper的架构中,包含一个模型选择层(Model Selection Layer)以及一个模型抽象层(Model Abstraction Layer)。模型选择层负责在多个竞争的模型当中根据需求动态选择和组合模型,从而能够提供更精确、更鲁棒的预测。而模型抽象层则屏蔽底层的不同机器学习框架,通过抽象出一个通用的API来方便模型上层应用对模型进行调用。

Clipper为了能够实现低延时、高吞吐率的预测,在模型抽象层引入了缓存的策略。对于每一个模型,Clipper提供一个缓存层,并且通过Adaptive Batching来提高预测的吞吐率。而对于模型选择层,则引入Straggler mitigation技术,预测的请求不会路由到比较慢的模型执行上,从而能够降低延迟。

Clipper集群

Clipper集群的实现利用了现在非常流行的容器技术。一个Clipper集群由一组相互通讯的Docker容器组成。Clipper集群的核心由三个部分组成:查询前端(Query Frontend),管理前端(Management Frontend)以及配置数据库(configuration database),如下图:

其中:

Query Frontend负责接收进来的预测请求,并将这些请求路由到部署的模型上,

Management Frontend负责管理和更新Clipper集群的内部状态,当集群需要更新时,需要通过Management Frontend的REST API发送请求,状态会更新到database当中

Configuration Database是一个运行Redis实例的容器,它存储了集群所有的配置信息。

Clipper中的模型

在Clipper环境中,每个模型都会运行在一个Docker容器中。Clipper对常用的模型运行框架提供了model deployer,从而使得常用的模型类型可以方便的进行部署。目前,Clipper支持三种类型的模型环境:纯Python, PySpark和R。在模型被部署成功之后,Clipper利用容器管理来启动容器并且建立一个模型容器与Query Frontend之间的RPC连接。

在Clipper当中,模型部署好之后并不会建立一个对外的REST服务。Clipper引入了一个应用层来负责将请求路由到模型容器中。这样使得多个应用可以路由到一个模型,也可以一个应用路由到多个模型。用户需要通过ClipperConnection.register_application来注册应用,应用注册成功之后,会对应用创建一个REST服务。

通过ClipperConnection.link_model_to_app,可以将model连接到应用上,这样对于应用的访问就能够路由到模型上了。如下图:

在Clipper当中,模型支持不同是版本,当新的版本通过deploy_model被部署时,应用会将预测请求路由到新版本的模型上。另外,用户可以通过ClipperConnection.set_model_version来回滚模型。

Clipper支持针对同一个模型复制不同的副本,从而提高模型的吞吐率。通过调用ClipperConnection.set_num_replicas,Clipper可以根据设置的副本数量来启动相应数量的模型容器,如下图:

对于模型的访问,则是通过访问应用的REST API来完成,比如:http://localhost:8080/wordcount-app/predict

从前面的描述我们可以看到,Clipper的核心是实现模型的调用与模型运行态的隔离,通过逻辑层的应用,将模型的服务以REST API或者RPC的方式对调用者开放,而Clipper内部通过应用和模型的连接来灵活的实现应用对模型的路由,从而将模型和对外的服务解耦,为满足模型服务化的性能提供了基础。而底层则利用容器化的技术来实现从训练到运行态的转换工作,降低模型部署的成本。整个设计的思路从架构上来讲,如果大家面向同样的问题做架构,估计大同小异。具体的实现,由于Clipper的目的是提供高性能生产环境预测能力,整个项目利用RUST和C++来实现核心的代码,实现代码的选择非常有Geek范儿。想一下师出同门的Spark用Scala语言实现,在大约6年前,也是非常Geek的。不得不说,伯克利出品的东西,工程能力还是比较出色的。

目前Clipper这个项目仍在快速的迭代过程中,它距离一款成熟的产品还有一定距离,大家有兴趣可以到Clipper的官方网站: http://clipper.ai/,去关注这个项目的进展。

由于数据科学最后一公里问题是个共性的问题,而且客户的需求越来越迫切,TalkingData的技术团队也在利用容器技术实现自己的模型生产部署平台,并且开始在一些客户的生产环境中进行使用,如果你也面临同样的问题,欢迎与TalkingData技术团队一起进行深入的探讨。

TalkingData&链塔智库联合发布《2018中国区块链移动应用发展研究报告》

7月10日,智库BlockData与数据智能服务平台TalkingData联合发布《2018中国区块链移动应用发展研究报告》,展现2018中国区块链APP应用全景。

据悉,《2018中国区块链移动应用发展研究报告》(以下简称《报告》)调查覆盖中国7亿活跃移动互联网用户,从超过12万款热门应用中选取区块链App,从区块链App应用方向、项目类型、人群画像等多个维度展现中国区块链移动应用发展现状及创业生态,并对典型区块链APP进行重点分析。

Markdown

区块链企业高度集中北上广深杭

《报告》显示,从地区分布来看,区块链企业主要集中在北上广深杭,从行业分布来看,金融服务及企业服务是主力军。近几个月来,区块链企业融资增多,增速超过 P2P 金融及移动支付等 Fintech 技术。

根据技术发展情况,我国区块链应用主要场景包括:金融领域,企业服务,社交,文娱传媒,硬件,物联网,医疗健康,公益慈善,交通运输,人工智能,电商,房地产,教育,农业,工业,能源等领域。

《报告》强调,基于区块链技术的DApp尚处于早期探索状态,目前没有大规模实际应用价值的DApp出现,区块链相关App还是市场上的主力军。

和加密货币相关的App更受关注

链塔数据库收录了90款区块链相关App,根据苹果商店的分类划分,新闻类App最多共计38家,占比42%;财务类App共有17家,占比19%;参考类App有10个,占比11%;实用工具类App有12个,占比14%;工具类App共计6个,占比7%;其余合计占比7%。大部分的App还是和新闻和财务相关,说明这两个领域比较热门,符合行业状况。

Markdown

在部分新闻类App中,火球财经和金色财经的季度用户规模均超过20K,币头条的季度用户规模超过了10K。从使用率(活跃用户规模/安装用户规模)来看,贝壳头条最高为10.33%,说明下载贝壳头条的用户使用频率较高,而其他App的使用率大概在4%。

Markdown

其他类别的App中,OKEx的季度用户规模最大,超过了70K,但使用率不高,说明用户下载后并不是使用得很频繁。MyToken和OKCoin的季度用户规模超过30K。这三个App都是和加密货币交易相关,说明用户对此类App感兴趣。

区块链App人群以男性为主

区块链App使用人群中,男性人群占比超过70%,男性占比要比移动互联网用户中男性比例高17.7%。

Markdown

区块链App使用人群中,26-45岁人群占比合计超过70%,构成区块链App使用的主力;46岁以上人群占比要低于移动互联网同龄用户,中老年人群对于区块链应用的兴趣要低于青壮年人群。

区块链App人群更关心车子房子票子

相比于移动互联网用户整体,区块链App人群的应用兴趣更多的集中在汽车、房产、金融理财、家居等领域,对于物质条件的追求更为直接。

Markdown

而在网购、影音、生活等类别应用上,区块链App人群的兴趣要低于移动互联网用户,手机游戏是区块链应用人群最喜欢的娱乐方式。

区块链App人群偏好金融、运动类消费场所

与移动互联网用户相比,区块链App人群更加偏好金融、运动健康类线下消费场所,对于资产管理、个人健康管理更为热心。

Markdown

区块链App人群在经济发达地区集中度更高

在地域分布中,区块链App人群主要集中在广东、浙江、江苏、山东等东南沿海经济发达地区。在城市分布中,北京、深圳、上海、广州这四个一线城市包揽了前四位置。

区块链App人群在北京的工作地更多的集中在中关村、上地、望京、国贸、金融街等互联网、金融公司密集区域。而在上海的工作地分布区域更为广泛,并没有明显的区域聚集中心。

Markdown

Markdown

区块链App人群更偏好中高档价位手机

Markdown

相比于移动互联网用户,区块链App人群所使用的安卓设备中2000元以上价位占比更高,2000-3999价位占比要高出11.3%。区块链App人群更加偏好中高档价位手机。

在区块链App人群安卓设备品牌占比中,OPPO、VIVO、华为包揽了前三位。三者相加占比已超总体50%,市场集中度相对较高。

Markdown

需要完整版《2018中国区块链移动应用发展研究报告》的用户,可以关注链塔智库(公众号ID:liantazhiku)或网站,均可免费阅读完整版报告全文。

TalkingData合伙人&高级副总裁蒋奇:大数据如何为社会赋能?| 2018商业新生态峰会

2018年,商业创新迈进了新的阶段,在业务飞速发展的同时,风口大热背后的认知沉淀与实践积累也随之而来。7月10日,36氪与《零售老板内参》联合举办的2018商业新生态峰会在北京举行。本届峰会以“质”为主题,希望在时代浪潮下的新商业企业可以看清商业本质,并最终完成新商业的革新与升级。

Markdown

TalkingData合伙人&高级副总裁 蒋奇

美国管理学家、统计学家爱德华·戴明曾说过“除了上帝,任何人都必须用数据说话”,互联网时代在给人们带来了各类便捷服务的同时,也使得大量的数据源源不断地产生,那么如何分析、挖掘与计算这些大数据为企业赋能、助力城市发展?TalkingData合伙人&高级副总裁蒋奇在大会上发表了以“智慧城市和人本数据”为主题的演讲,为大家介绍了TalkingData的数据探索之路。

一、数据能力提升的两大要素

在谈到数据的重生时,蒋奇认为,就如同武侠小说中主人公功力大增,靠的是大量功力传入和武功秘籍这两个基本要素一样,数据的能力提升也需要几个条件:首先要有更大量、更全面的数据。

截至2017年底,中国约有智能手机13亿部、可穿戴设备4千万台、物联网设备30亿台,整个数据量为350EB。到2019年中,人和物联网设备的比例将会达到1:200。

当设备量级增长带来了数据量级指数级增长后,就将进入下一阶段——将实体物质化转变为数字虚拟化。虽然大量数据是前提,但简单的数据堆砌是无用的,仍需进行很多尝试。

蒋奇表示,TalkingData从创业到现在,从专注互联网行业到进入零售等垂直行业,一直在帮助企业做运营和业务的虚拟化。例如TalkingData与腾讯云合作推出的数据智能应用——智选,将海量数据与机器学习有机整合,满足零售业实体门店的智能选址、商圈经营等场景,并对周边商圈的人群类型、消费能力进行详细分析。

而做这些事情的目的是什么?商业的转型升级,也必须构建在城市基础之上,由对人群不断深入的认知所驱动。面对城市中川流不息的人群,他们来自哪里、要做什么、又有怎样的诉求?如果能够通过高度真实的虚拟化场景来洞察整个城市、洞察城市人群,相信无论对城市治理还是商业经营,都会带来显著效果。

Markdown

TalkingData智选

二、通过大数据打造“智慧城市”

蒋奇表示,除金融、零售等行业之外,TalkingData也一直眼于“智慧城市”的打造。通过大数据的手段对城市人群进行深度剖析,了解其需求与痛点,通过真实的、可透视的虚拟化场景,将城市展现在政府管理者或企业主面前,助力城市治理与企业经营。

因此,TalkingData不断地探索数据在智慧城市中的应用。蒋奇通过一个案例,来解读以人为本的数据,在人群洞察、构建智慧城市中的意义。

以往,对人群的分析和定义通常是基于非常单一的属性,给人群打标签是比较主流的模式。但中国经济发展如此迅猛,每时每刻都在诞生新鲜事物,每个人的思想与触媒习惯都在发生剧烈的变化。蒋奇认为,再用三年前的标签策略去判断人群属性在当今是不可行的。

因此蒋奇认为,在洞察人群时,需要新的维度与思维。TalkingData在此方面做了创新尝试,例如整合人群的线下位置分布、线上行为特征等多种数据,去重新定义在飞速变化的社会中的人群属性,以对在城市生活的所有人群有一个清晰、准确的认知。

比如将喜好购物和美妆、经常去线下文艺演出场所观看表演的人群等,定义为“比较文艺的买买买人群”;因共享经济应运而生的代驾、司机等,具有很强的流动性以及一定的消费能力与就业能力,可以定义为“城市自由人”;还有偏好娱乐、网购,消费能力不是很强、但消费意愿极强的“新鲜人”人群等。

以这样的视角来定义和描述人群此前从未有过,TalkingData目前专门建立了一个团队在做此类研究。

Markdown

TalkingData还打造了基于数据城市仿真的一套整体系统——“城市透镜”,能够多维度地洞察城市,对世界进行可视化呈现,最后把这些观察和需求,与基于AI 的动态学习模型相结合,在虚拟世界和现实世界转换中,增强对世界的感知和认知能力。

Markdown

统计魔方

​人口统计对城市治理有基础性的指导意义。以往的人口统计中,只需要了解一个家庭的人数、性别、年龄;而现在,还需要了解家庭的收入结构、购物倾向、旅游倾向、对政府治理的建议等等,来辅助国家的经济运行。

由于现今城市人口流动性很大,导致传统的人口统计模式很难精准,影响政策、施政目标的落地,因此TalkingData也与国家统计局设立了联合实验室,结合移动大数据的,探索更为准确、动态、及时、多维度的全新人口统计方式。此外,基于在人口统计方面的经验,TalkingData还专门推出了的移动大数据人口统计应用——“统计魔方”。

蒋奇认为,这些研究不能纯粹以商业化为目的。而“开放”也是2018年TalkingData战略布局的核心关键词之一,TalkingData希望将这些前沿性研究的成果,以非功利的方式开放给所有的企业和政府机构,给未来提升政府治理、智慧城市和商业变革带来助力。

券商转型互联网财富管理的三大核心方向

前言

2018年已经过半,随着券商佣金费率不断降低,国内去杠杆、美联储加息等多种因素导致的市场行情不佳、IPO业务及承销业务的持续低迷,券商经纪业务从传统通道服务向财富管理模式转型,俨然成为国内券商的当务之急。此外,当今互联网高速发展,大数据、人工智能等概念纷至沓来。金融科技又将如何助力券商转型互联网财富管理? 这一议题也引发了越来越多的券商行业从业者的思考。
TalkingData 依据自有数据,结合服务多家券商的咨询经验,形成此次报告,结合金融科技的应用,分别从用户、产品、服务三大方向,为券商转型互联网财富管理提供相关建议和新的启发。

互联网财富管理规模究竟有多大?转型空间还有多少?

据波士顿咨询公司发布的2018年全球数字财富管理报告显示,截至2017年底中国的互联网财富管理规模已达到6千亿美元。与五年前的百亿级美元管理规模相比,年化增速已超过50%。同时,截至2017年中国个人持有的可投资资产总额高达188万亿人民币,可投资资产超过1000万的高净值人数更是高达187万人。
在互联网行业飞速发展的今天,高速增长的个人财富带动了大量的线上金融资产配置需求,这无疑给互联网财富管理市场的发展创造了巨大空间。

目前互联网财富管理的竞争格局如何?

随着互联网财富管理市场规模的迅猛发展,市场上逐渐显现出如下四类主流互联网财富管理的竞争格局。其从客户、产品、服务三个方面显现出的特点也不尽相同。
注:点击可查看高清大图,下同
Markdown

券商开展互联网财富管理转型的现状

  1. 主流券商互联网化已趋于完善
随着2014年国金证券推出“佣金宝”,证券互联网元年的正式开启,券商先后经历了2015年的互联网导流、2016年的移动APP打造、2017年的智能化浪潮阶段,目前移动APP已成为券商零售业务新模式和互联网财富管理的重要载体。
TalkingData基于数据角度对目前券商APP活跃度进行评估,发现互联网化起步较早的券商,趋于完善的产品功能和运营,较优的APP活跃度都意味着这些券商的互联网化趋于完善。线下交易的线上化,为其逐步积累了大量的线上投资客户,同时也是为其互联网化财富管理的转型之路打下了坚实基础。
Markdown
  1. 转型之路的战略布局已开始
其实财富管理转型话题一直在券商行业引发诸多讨论和思考,不少主流券商也早已在不同方面对财富管理转型进行了战略布局。例如在内部架构方面,华泰证券重新构建了零售及财富管理、机构客户服务两大业务体系;国金证券撤销原经纪业务管理总部,成立了经纪业务执行委员会;广发证券新设立了私人银行部等。客户分层方面,中信证券对交易型和财富型这两类客户的服务各有侧重点,而国金证券也区分了普通投资者和专业投资者。投顾服务方面,华泰证券的财富管理体系以投资顾问为核心,投资顾问占从业人员的比例高达 25.43%,行业排名第一。
  1. 转型之路仍是机遇与挑战并存
尽管券商的互联网化逐渐趋于完善,也已开始财富管理转型的战略布局,但对比目前拥有一定市场规模的主流互联网财富管理机构,券商其自身还是存在如下优劣势。
Markdown

数据时代券商转型互联网财富管理的三大核心方向

结合券商转型互联网财富管理上自身的优劣势,其需要基于移动APP,着眼于客户、产品、服务三大核心方向,利用大数据科技手段,以服务客户为中心,给予客户投资前、中、后三阶段的完整投资生命周期体验,协助投资人实现全方位专业资产配置的财富管理需求。
  1. 客户方向

  • 客户认知重塑:打造全方位综合型财富管理品牌
现阶段证券公司主营业务收入仍是以代理买卖证券业务及证券承销与保荐业务收入为主, 客户认知上比较固化,投资者对券商的普遍认知还仍以股票交易为主,并非财富管理或理财。因此,券商需在财富管理市场中定位其核心竞争力,重塑客户的品牌认知,从而打造全方位综合型的财富管理品牌。
  • 客户需求洞察:通过KYC描绘精准、多维的客户投资画像
客户需求洞察,做到企业比客户更懂客户,向来是提升业务运营的坚实基础, 同样也是提供针对性综合服务最有力的切入点。
TalkingData建议从客户的资产量、交易行为和用户特征三大方面着手,建立多维度交叉立体的KYC数据体系。全方面了解客户特征,洞察客户投资需求。例如TalkingData AE5.0用户洞察功能可以协助传统券商实现数字化KYC,目前其已有效协助国泰君安证券、民生银行等多家金融机构,成功构建KYC数据分析平台,利用数字化手段勾勒出投资客户画像,为企业后续精细化运营打下坚固的基础。
Markdown
  • 客户需求洞察:利用大数据科技精准定位高净值客户群体
TalkingData 可以按照客户需求,通过地理聚集原理,建立数据模型,利用机器学习加工某个特定区域的高净值人群设备,再将这些设备通过TDID等信息打通数据,以最终实现帮助客户精准定位到高净值客户群体。
Markdown
  1. 产品方向

金融产品多元化:打造全品类资产配置并通过KYP定位产品优势
  1. 提供风险收益比更高的固定收益产品:专业的客户资产配置中,固定收益类产品所占比例通常较大。且以固定收益类产品作为与客户交流的起点,更容易得到客户的认同和接受。
  2. 包装创新金融产品:金融市场不断发展,监管环境不断变化,也应面向市场不断推出新的金融产品。包装成功的创新金融产品也是抢占市场流量的有效方式之一。
  3. 打造综合资产配置概念:摆脱传统券商单纯炒股的资产保值理念,结合更多不同理财型资产类别,实现多元专业的金融资产配置。
  4. 通过动态竞品分析软件实现KYP(Know Your Product),动态跟踪市场上金融产品全面数据信息并进行分层排序,从而迅速掌握市场金融产品情况,实现更精准专业的资产配置,利于调整产品运营的策略,完善自身金融产品多元化。

三. 服务方向

提供差异化服务:线上线下联动,搭建以客户为中心的专业服务体系
  1. 发力投资者教育
Markdown
  1. 建立投后管理服务
传统的投后管理多以客户发出指令或提出服务需求、理财顾问被动响应的模式为主。
而做出差异化投后服务,可变被动为主动。 利用“智能客服” 去主动触达客户,解决客户日常基本咨询问题甚至投资收益跟踪提醒,释放出更多人力,以提供定制化资产配置、法务及税收等方面的咨询服务。
TalkingData AE5.0营销活动管理是国内首个将营销闭环整合至移动分析平台的行业产品,其不仅能追踪并分析营销活动效果,同样在投资者教育和投后管理服务方面也可以起到相似的作用。协助券商客户追踪并分析投资者内容教育方面的转化,评估投后管理服务的推送点击情况及客户满意度,进而不断帮助业务人员优化财富管理的服务体系。
Markdown
“智选”是TalkingData与腾讯云联合,依托于各自强大人本数据和地理信息数据,结合经典模型和预测算法,对特定区域周边的人群进行整合分析的数据智能平台。券商可以借助智选平台,整合各线下营业网点周边的客群特征、客群需求、客群流量等,进而调整网点经营和营销方面的策略,以达成提升线下网点服务质量的最终目的。
Markdown
更多财富管理转型咨询,请联系——
400-870-1230
support@tendcloud.com
Markdown

推荐21个顶级的Vue UI库!

Markdown

最近,随着“星球大战”(指 GitHub 的 Star 数量大比拼)的爆发,Vue.js 在 GitHub 上的 Star 数超过了 React。虽然 NPM 的下载量仍然落后于 React,但 Vue.js 的受欢迎程度似乎在持续增长。

Markdown

1、Vuetify

Star 数为 11K,提供了 80 多个 Vue.js 组件,这些组件是根据谷歌 Material Design 指南实现的。Vuetify 支持所有平台上的浏览器,包括 IE11 和 Safari 9+(使用 polyfill),并提供了 8 个 vue-cli 模板。

地址: https://github.com/vuetifyjs/vuetify

2、Quasar

Star 数超过 6K,是构建 Vue.js 响应式网站、PWA、混合移动应用和 Electron 应用的流行框架。Quasar 还支持诸如 HTML/CSS/JS 压缩、缓存清除、摇树优化(tree shaking)、源映射、代码分割和延迟加载、ES6 转码等功能。

地址:https://github.com/quasarframework/quasar

3、Element

Star 数将近 28K,是一款面向 Web 的 Vue.js 2.0 UI 工具包。它拥有一个强大的社区和 350 个贡献者,提供了丰富的可定制组件,以及完整的样式指南和更多的资源。 地址:https://github.com/ElemeFE/element

4、Vue Material

Star 数差不多 6K,是一个实了谷歌 Material Design 的简单库。该库还提供了一个 webpack 样板、用于 Nuxt.js 的 SSR 模板和一个单独的 HTML 文件(通过这个文件开始使用框架)。这里有一些入门的例子https://codesandbox.io/s/github/vuematerial/examples/tree/master/examples/quick-start。

地址: https://github.com/vuematerial/vue-material

5、Keen-UI

Star 数将近 3.5 K,一组 Vue 组件的集合,在设计上受到了谷歌 Material Design 的启发。Keen-UI 并不是一个 CSS 框架,它不包含网格系统、排版样式等。相反,它关注的是基于 Javascript 的交互式组件。

地址:https://github.com/JosephusPaye/Keen-UI

6、Buefy

Star 数 3K 左右,基于 Bulma(https://bulma.io)提供了一组轻量级的 UI 组件。Vue.js 和 Bulma 是这个库唯一的两个内部依赖。它的大小约为 60KB(压缩后的大小,并且包含了 Bulma)。你可以查看实时文档网站(https://buefy.github.io/#/documentation/start)并在 Codepen 上运行代码。

地址: https://github.com/buefy/buefy

7、Bootstrap Vue

Star 数超过 5K,为 Vue.js 提供了 Bootstrap 4 组件和网格系统的实现,并提供了自动 WAI-ARIA 可访问性标记。

地址: https://github.com/bootstrap-vue/bootstrap-vue

8、Muse-UI

Star 数超过 6K,是另一个 Vue 2.0 MD 库,提供了 40 多个 UI 组件和可定制主题。文档主要使用中文撰写,不过大多数组件是自解释的,文档只起到辅助作用。该项目在积极的开发和维护当中。 地址:https://github.com/museui/muse-ui

9、AT-UI

Star 数接近 1.5 K,一个模块化的前端 UI 框架,用于开发基于 Vue.js 的 Web 界面,适用于桌面应用程序。它提供了 NPM+Webpack+Babel 的前端开发工作流和独立的 CSS 样式,值得一试。

地址: https://github.com/at-ui/at-ui

10、Vux

Star 数超过 13K,是一个流行的社区库,基于 WeUI 和 Vue 2.0。该库还支持 webpack+vue-loader+vux 的工作流。它的文档也是中文的。

地址: https://github.com/airyland/vux

11、iView

Star 数将近 16K,提供了数十种用 Vue.js 构建的 UI 组件和小部件,并采用了干净而优雅的设计。iView 被广泛采用,社区也在积极维护,并提供了 CLI 工具用于以可视化的方式创建项目。这个也值得一试。

地址: https://github.com/iview/iview

12、Uiv

Star 数“仅”550 左右,用于 Vue 2 的 Bootstrap 3 组件库。所有组件加起来差不多 20KB,唯一的外部依赖是 Vue 和 Bootstrap CSS,支持基于 Webpack 的工作流。 地址:https://github.com/wxsms/uiv

13、Vuikit

Star 数 1K 左右,一个用于网站界面的响应式的 Vue UI 库,设计风格干净而统一。该库作为由 Yarn 工作区管理的“monorepo”而构建,但图标和主题可作为单独的包发布。

地址: https://github.com/vuikit/vuikit

14、Onsen UI+Vue

基于流行的 Onsen-UI 框架,封装了核心 Web 组件并暴露了 Vue 风格的 API。Onsen UI 组件也被设计为能够主动对 prop 做出反应。

地址: https://onsen.io/v2/guide/vue/

15、Semantic UI+Vue

这个项目基本上是 Semantic-UI 框架与 Vue.js 的集成。该库仍在开发当中,提供了一个类似于 Semantic-UI 的 API 以及一组可定制的主题。

地址: https://semantic-ui-vue.github.io/

16、Fish-UI

Star 数“仅”为 500 左右,贡献者也只有 3 个,但 fish-ui 提供了一个基于 Vue 的 Web 工具包,其中包含整洁干净的组件。该库支持 ES2015+Webpack 工作流。它的文档不是很全,但它的设计不容忽视。

地址: https://github.com/myliang/fish-ui

17、Mint UI

Star 数超过 11K,为 Vue.js 提供 UI 元素,提供了用于构建移动应用程序的 CSS 和 JS 组件。当全部导入时,压缩后的代码只有月 30KB(JS+CSS),当然它也支持单个组件的导入。

地址: https://github.com/ElemeFE/mint-ui/

18、Framework7 Vue

这个集成提供了几乎所有的 Framework7 元素和组件,并集成了 Framework7 Router,按照 Vue 的方式来渲染页面。该库正处于积极的开发和维护当中。 地址:https://framework7.io/vue/

19、Cube UI

Star 数超过 3K,是用于 Vue.js 移动应用程序的 UI 组件库。所有组件都经过了单元测试,并且该库还支持按需进行后期编译和组件导入。这个库仍在积极开发中。

地址: https://github.com/didi/cube-ui

20、Vueblu

Star 数约 1.5K,是基于 Vue 2.0 和 Bulma 的 UI 组件库,用于构建中台和后台办公产品。它支持 ES2015 和 NPM+Webpack+Babel 工作流,并提供可自定义主题。

地址: https://github.com/chenz24/vue-blu

21、Ant Design Vue

Star 数约 1.5K,用于开发具有数十个 Ant Design 实现组件的企业级后端产品,并支持基于 Webpack 调试的构建解决方案(支持 ES6)。请注意,它的开发已经停止了一段时间。

地址: https://github.com/okoala/vue-antd

特别推荐

n3-components :

https://github.com/N3-components/N3-components

vuikit:

https://vuikit.js.org/

Kendu UI Vue

https://www.telerik.com/kendo-vue-ui

Office Fabric-Vue

https://github.com/aidewoode/office-ui-fabric-vue

vuestrap

http://kzima.github.io/vuestrap-base-components/#/

vueboot

http://morgul.github.io/vueboot/

framevuerk

http://framevuerk.com/

Vue WeUI

http://aidenzou.github.io/vue-weui/#!/

Vue-MDC

https://github.com/posva/vue-mdc

重磅发布预告

排名11位的iView是由TalkingData数据可视化团队开源的UI组件库,也是一个充满情怀的开源项目。 在过去的一年里,iView共迭代了27个版本,还在近期发布了针对微信小程序开发的UI组件库——《iView Weapp》。 7.28是iView的两周年生日,iView团队也将在这一天举办发布会,正式发布iView 3.0以及5款与iView相关的神秘产品。点击文末阅读原文,就有机会亲临发布会现场。

Markdown

多种措施并进,TalkingData有效保障数据安全与合规

数据安全和合规性是企业运营的重要基础。

公安部网络安全保卫局郭启全总工曾在公开场合表示,国家对网络安全等级保护制度提出了新的要求,等级保护制度已进入2.0时代。

TalkingData非常重视数据合规及数据安全。在近日举办的TalkingData 2018产品及战略发布会上,TalkingData创始人兼CEO崔晓波在演讲中强调了对数据安全的关注以及努力,并将“开放、连接、安全、智能”作为TalkingData的战略方向与差异化优势。

Markdown

目前,TalkingData按照国内法规、甚至GDPR的要求,将数据安全作为全局考量,纳入所有业务和产品的设计与落地中,并在数据保护技术方面持续进行大量探索和实践,包括与MIT麻省理工学院合作研发创新性的技术框架OPAL(Open Algorithms)。

Markdown

6月27日,公安部制定并发布了《网络安全等级保护条例(征求意见稿)》,将网络安全保护等级分为五个等级,贯彻落实《中华人民共和国网络安全法》,深入推进实施国家网络安全等级保护制度。

TalkingData已在日前开展了信息安全等级保护备案工作,以尽快明确自身安全保护等级,从而更好的按照该条例的规定承担相应的安全保护义务。

此外,为了更好的保护数据安全,企业也应将国家要求与业务需求相结合,发现系统内、外部存在的安全风险和脆弱性,提高信息系统的信息安全防护能力,降低系统被各种攻击的风险。

为此,TalkingData早在2014年就通过了ISO27001:2013信息安全管理体系认证,并于2017年获得了CMMI(level 3)的认证,这标志着TalkingData的数据安全管理过程更加规范,并在数据安全、设备安全、信息系统安全、人员安全管理等方面均达到了国际化的较高水平。

CMMI(Capability Maturity Model Integration), 由美国国防部与卡内基-梅隆大学软件工程研究中心以及美国国防工业协会共同研发,是对于企业软件能力成熟度集成模型的国际化权威认证。历经复杂的准备与认证过程,TalkingData已在2017年5月5日获得了CMMI(level 3)的认证。获得此项认证,说明TalkingData已将软件管理和工程两方面的过程文档化、标准化,并综合成标准软件,使信息处理合规化;同时也说明TalkingData在软件工程管理和开发改进能力以及信息处理方面达到了国际化领先水平,有能力为合作伙伴提供值得信赖的软件开发与维护服务。

Markdown

ISO/IEC27001:2013是国际化通行的信息安全领域的管理体系标准。通过此项认证,意味着企业已经建立了一套科学有效的管理体系,可以有效保护信息资源,保护信息化过程健康、有序、可持续发展。TalkingData已于2014年11月17日首次获得此项认证,并于2017年11月15日再次获得了此项认证,这意味着TalkingData有能力向客户提供值得信赖的服务,同时有能力向信息主体与有关主管部门作出企业信息安全的保证。

Markdown

TalkingData认为,数据安全与合规性既是企业运营的底线,也是影响未来健康发展的重要指标,TalkingData会继续将数据安全与合规性作为关键工作给予重视与投入。

Markdown

【邀请函】TalkingData & 德勤中国 数据安全峰会将在北京举办

Markdown

随着大数据时代的到来,数据已经成为与物质资产和人力资本同样重要的基础生产要素。大数据正在重塑世界新格局,被誉为是“21世纪的钻石矿”,更是国家基础性战略资源。在大数据时代,机遇与挑战并存,越来越多的数据共享开放,交叉使用。针对关键信息基础设施缺乏保护、敏感数据泄露严重、智能终端危险化、信息访问权限混乱、个人敏感信息滥用等问题,急需通过加强网络空间安全保障、做好关键信息基础设施保护、强化数据加密、加固智能终端、保护个人敏感信息等手段,保障大数据背景下的数据安全。

国家高度重视大数据安全,将其作为国家发展战略予以推动。2016年11月,第十二届全国人民代表大会常务委员会通过了《中华人民共和国网络安全法》,鼓励开发网络数据安全保护和利用技术。2016年12月,国家互联网信息办公室发布了《国家网络空间安全战略》,提出实施国家大数据战略、建立大数据安全管理制度、支持大数据信息技术创新和应用要求。在欧洲,从2016年4月14日,欧洲议会投票通过了商讨四年的《一般数据保护法案》(GDPR),该法案于2018年5月25日正式生效。GDPR的通过意味着欧盟对个人信息保护及其监管达到了前所未有的高度,堪称史上最严格的数据保护法案,并对中国企业造成深远影响。

TalkingData和德勤始终保持着对数据信息安全、数据保护相关法律法规的高度关注,专注于为企业提供全面而深入的服务。为交流经验,凝聚共识,TalkingData和德勤中国将于2018年7月31日在北京举办“TalkingData & 德勤数据安全峰会”。届时我们将邀请来自知名机构、独角兽企业高管及精英共聚一堂,深度对话大数据环境下的数据信息安全。

在此,我们诚邀您出席本次活动,聚焦网络安全法规、数据安全实践、企业发展策略等关键议题。期待您拨冗莅临!

峰会详情

主办单位

  • TalkingData
  • 德勤中国

日期

  • 2018年7月31日(星期二)

时间

  • 13:30 – 17:00

地点

德勤北京办公室(北京市东城区东长安街1号东方广场W2座3层)

峰会议程

Markdown

报名及垂询

请扫描下方的二维码报名参与

Markdown

如您有任何垂询,请联系

马涛

TalkingData

电话:+86 136 0125 3356

邮箱:tao.ma@tendcloud.com

周立彦

德勤中国

电话:+86 (10) 8512 5909

邮箱:liyzhou@deloitte.com.cn

TalkingData崔晓波:“成效合作”是检验“数据智能”的最终标准

✎导读

数据市场上逐渐形成三类玩家:第一类是数据源企业,包括数据生产和数据交易企业;第二类是工具,一些BI企业也可以划分在这个维度里;第三类是咨询以及相关服务。“基本上99%能够分在这三类里面,”是崔晓波对当下大数据市场的认知。

Markdown

近年来大数据和人工智能领域正发生深刻的进化,继2016年横空出世的阿尔法狗(AlphaGo)击败了围棋世界冠军李世石后,阿尔法元(AlphaGo Zero)又以100比0的战绩击败了阿尔法狗;另一重要事件是2018年3月科技独角兽Palantir Technologies 获得美国军方8.76 亿美元合同。

以上事件可以说“数据智能”已经发展到令人惊奇的阶段,一方面阿尔法元(AlphaGo Zero)可能证明“智能”正在迈过“数据”的桎梏;另一方面大数据企业赢下大单,也从侧面说明“数据智能”已经能够对现实世界产生重要影响。

回顾2011年TalkingData创始人兼CEO崔晓波决心在大数据领域创业时,彼时对大数据的未来还只是判断。“那时候最经典的一个讨论,我们几个创始人认为智能手机就是以后数据最重要的一个点,不仅能够把线上跟线下的数据打通,而且是历史上第一次人随身携一个测量仪,忠实地记录人物线上所有的行为、线下所有的足迹,当时我们都觉得机会来了。”庆幸的是,崔晓波赌对了。

随后大数据企业也如雨后春笋一般成立起来,在此后发展的过程中,大数据市场上逐渐形成三类玩家:第一类是数据源企业,包括数据生产和数据交易企业;第二类是工具,一些BI企业也可以划分在这个维度里;第三类是咨询以及相关服务。“基本上99%能够分在这三类里面,”是崔晓波对当下大数据市场的认知。

经过7年发展,崔晓波希望TalkingData突破传统的数据源公司、数据软件公司、咨询公司模式,以“数据智能服务商”为定位,基于开放连接的理念构建整合数据产业链各方资源的平台生态。如果简单一句话解释TalkingData新商业模式,就是TalkingData希望自己不是上文提到三种模式囊括的99%玩家。

成为大数据领域1%的玩家,崔晓波在如何思考大数据的未来发展和构建TalkingData的明天?在崔晓波和亿欧的交流过程中,他提到两点认知转变:

第一是未来数据合作的核心是连接,而不是拥有

在崔晓波看来,数据拥有并不能解决大数据实际应用中的效果问题。比如单纯的数据交易不是需求决定的市场行为,数据交易会造成数据量大但却缺乏关键数据;另一方面是数据来源少,会造成数据偏差,比如对餐厅门店的第二天客流预测,如果有经营数据、财务数据、交通数据,惟独缺少天气数据,也会让预测出来的结果不准确。因此拥有多少数据不重要,关键的是能连接多少数据。

但数据因为涉及隐私保密、安全等缘由,所以数据的交易和流动都是十分谨慎的事情。为此TalkingData推出SDMK数据智能市场和SmartDP数据智能平台解决数据的流动和应用的问题。

SDMK数据智能市场接入各渠道数据源,打破各企业间的数据孤岛,帮助企业连接更多的数据。SDMK数据智能市场一个非常核心的一个框架是OPAL(Open Algorithms),又名算法开放库,“这个技术框架的核心是不流动数据,只流动算法。”据悉这个由MIT连接科学研究所发起的项目,TalkingData是唯一一家参与的中国企业,在美国有VISA、IBM、NEC等等也在参与。

同时TalkingData在上面提供数据服务、数据工具、数据模型(预置了300多个在领域里面验证的模型)以及数据应用去承载落地,并提供统一计费和计量的模块。

SmartDP数据智能平台是为各方开放提供面向业务场景的数据智能应用与服务。“通过SDMK实现数据聚合还不够,从数据的准备到自动化特征工程、模型生产和管理探索、数据目录的管理等还有很多过程。”SmartDP数据智能平台正是为企业快速上线大数据应用而开发的平台。

SmartDP数据智能平台还包括知识图谱和机器学习等算法和模块,TalkingData可以通过数据一键线性回归处理数据和模块拖曳的方式,迅速在企业的模型商店里面上架应用。

第二是大数据企业应该为效果负责,成效合作是未来趋势

这个转变源于崔晓波去美国参观全球大数据标的企业Palantir,崔晓波问Palatir的合伙人:“为什么你们的客户愿意付那么多钱?”那个合伙人回答,一会我要去签一个1亿美金的单子,是一家石油采集企业希望利用大数据做地质灾害和天气预测的项目。他们花费半年时间做出的模型,能够提前20分钟发出灾害预警,帮助油田在灾害发生前提前关闭油井,降低的损失是巨大的。“Palatir不是卖软件不管结果或者出点子的咨询模式,而是真的为效果服务,因此客户愿意付出成本。”

崔晓波提到国内企业也正在发生这种需求转变,“大概2017年,大量的企业过来找我们说,现在有紧迫的转型升级压力,真的要把数据用起来了,但是他们最大的疑惑是大数据能不能产生实际效果。”

TalkingData的策略是把客户分为几层:第一层是KA(关键客户),这一部分是可以考虑成效合作,因为投入的资源也很大,要确保成功率,要考量很多因素。第二类是叫PA,这类主要提供的是标准化产品、标准化服务。第三类是长尾的客户,是用大量SaaS和DaaS的服务去覆盖。

目前这种KA客户在TalkingData内部有10多家,每家的客单价都是千万元以上。“对KA客户我们完全倾向于成效合作,如果结果好就多分钱,结果不好可以少要钱,甚至承担损失,因为我们觉得这就是未来。”

以TalkingData服务的客户耐克为例,耐克是线上和线下获客比例更占一半。耐克希望帮助他们提升线上的销售成绩。因此邀请TalkingData从数据系统的搭建、日常运营中怎么分析数据,如何将数据应用到业务中,甚至到活动的策划、流量的对接,做出一整套产品方案。“当时我们就提出来,TalkingData可以帮耐克增长线上销售的比例,并按线上销售收入的比例分成,他们也同意。这就是非常典型的成效合作。”

在构建好以SDMK数据智能市场和SmartDP数据智能平台为基础的大数据平台,以及确定未来的商业模式后,崔晓波提到TalkingData会进军各个垂直领域,目前零售、营销、金融和智慧城市是TalkingData重点聚焦的数据智能应用领域。同时TalkingData也发布针对这四个领域的产品,包括联手腾讯云发布的面向线下品牌商的数据智能产品——智选、移动大数据人口统计应用——“统计魔方”、品牌广告价值分析平台TalkingData Brand Growth以及TalkingData金融科技产品。

就像SaaS领域对标市值千亿美金的Salesforce一样,国内大数据领域也在寻找谁是对标百亿美金估值的“Palatir”。目前超过独角兽估值的TalkingData,尽管在某些方面学习Palatir,但是我们依旧能发现二者的不同。提出“人本数据”的TalkingData,认为基于人的统计模型实际上会影响到上面所有的行业和商业,比如TalkingData的智慧城市也是基于人在城市的商业生活展开研究。可以说,TalkingData正在走出一条和而不同的路,未来值得关注。

注:本文源自亿欧网

线上分享|巧用监测数据驱动推广增长

随着流量的日益金贵,广告主在营销期的推广费用也水涨船高。为了量化推广效果以及移动广告作弊情况,广告主通常会通过监测数据报表中的指标作为参考依据。但参考过后,如何将真实数据转化成运营策略或者营销推广策略、高价值渠道转化路径在哪里、渠道推广风险和机会在哪里,广告主是否能通过报表真正的解读出来?

Markdown

7月12日(周四)晚8点,TalkingData将举办《巧用监测数据驱动推广增长》线上分享会。届时TalkingData产品经理 彭颖将分享如通过阅读监测报表,助力广告主数驱推广增长的这些事儿。

(PS:提前报名,抢先占位。名额限量,先到先得~)

报名方式

识别下方二维码,添加主持人微信

需备注:公司-职位-姓名

Markdown

活动概况

  • 时间:7月12日(周四)晚8点
  • 形式:微信社群分享
  • 分享嘉宾:TalkingData产品经理 彭颖

分享内容

  1. 现阶段移动互联网广告主推广困境
  2. 监测数据报表解读
  3. 推广渠道方案优化
  4. 移动广告监测场景应用
  5. …………..

适合人群

从事移动广告行业的圈里人,广告主、营销人、渠道、广告媒介及代理商,也欢迎在营销推广中产生疑惑的各类人士参与交流与沟通。

活动微信社群作为TalkingData为移动广告圈人搭建的沟通平台,欢迎随时交流关于营销推广的各种话题与案例分享。

Markdown