全部主题
人工智能
金融科技
数据中心
大数据
云计算
人力资源
信息安全
IT规划
客户关系
生产制造
协同办公
工业互联
研发管理
流程管理
架构设计
软件项目
移动开发
编程语言
本周热门
用户增长数据分析课程
首席数据官基本要求
企业数据架构设计总体规划方案
Gluten 给 Spark 提速2倍背景、原理和实践
数据治理运营框架实现亿级费用减省的操作系统
高效保障数仓一致性数仓智能构建与治理平台的探索
58智能画像运营平台
数据分析从0到1
企业大数据可视化总体架构与应用解决方案
工行 IT 架构资产与元数据管理体系建设揭秘
最近更新
大数据时代的数字图书馆
数据规划架构设计
现代化BI的趋势与实践
贝壳OLAP平台架构演进
关于构建数据要素市场体系的几点思考
云时代的数据库Oracle 的技术演进之路和19c新特性揭秘
阿里研究中心:大数据时代
蚂蚁商家图谱的构建、融合应用及开放
制造业财务数字化管理综合方案
Apache Flink? 1.7 and Beyond
大数据后的用户画像
易车大数据平台体系建设及实践
面向广告主的推荐
deploy and serve model from azure databricks onto azure machine learning
企业财务经营五力分析
关于数据要素市场建构与数据要素产业发展的思考
互联网电商离线大数据分析最佳实践
携程Hadoop跨机房架构实践
2020大数据白皮书
HBase在大搜车金融业务中的应用实践
SAP BusinessObjects Cloud 的常见问题
基于大数据用电信息采集系统设计与实现
电商商品文案挖掘难点与优化实践
电力领域知识图谱技术进展与应用实践
JstormToFlink 迁移实践
大数据驱动的因果建模在滴滴的应用实践
大数据体系结构
隐私计算技术在医疗行业的方案与实践
具体场景应用下的数据价值实现
Celeborn社区支持Flink最新进展
课程介绍
大数据分析的案例方法与挑战
面向结构化数据的文本生成技术研究
携程酒店浏览客户流失概率预测
Ali-HBase的SQL实践与改进
以客户经营为核心的分析决策支持系统
阿里大数据计算平台运维实践
大数据厂商聚焦惠普
百信银行用户产品企业经营多维分析实践
公司数据质量管理办法
零售业浅谈数据化管理
大数据赋能智能运营
焦点科技大数据解决方案
数据大治理
陌陌推荐场景的Rank架构最佳实践
using apache spark and differential privacy for protecting the privacy of the 2020 census respondent
2020数据治理研究报告
Centos 安装Hadoop搭建详解
从医疗“大数据”到大数据价值落地
Hadoop最佳实践
首席信息官现代数据仓库指南
Deploy Apache Flink Natively on YARN_Kubernetes
德邦数据治理之路
商业智能BI白皮书3.0
大数据时代的数据挖掘与商务智能(一)
如何利用数字化提升企业效益
Oracle MDM主数据管理ETL解决方案
基于 Data Fabric 的逻辑数据湖架构实践
数据治理平台与数据运营体系建设方案
HBase在中国人寿的实战
Stream Analytics Made Real with Pravega and Apache Flink
创新成就餐饮行业智能化经营
大数据权限管理框架原理和实践
推荐系统的实践与思考
北京市政交通一卡通在城市治理中的应用
用友BI技术解决方案
Apache Hudi在阿里云DLA的实践与优化
Spark大数据的实现及行业应用案例
using deep learning in production pipelines to predict consumers interest
美团OLAP引擎选型和实践
第3章:数据仓库的设计与实施
Bridging the Gap Between Datasets and DataFrames
an ai use case market event impact determination via sentiment and emotion analysis
python解析用户画像
英特尔大数据技术与分布式架构设计详解
基于Log的通用增量Checkpoint
通信大数据社会治安防控新思路
ml at the edge building your production pipeline with apache spark and tensorflow
deploying apache spark jobs on kubernetes with helm and spark operator
湖仓数据平台的技术核心与价值探索
首页
文章
文档
我的