【SQL周周练】给你无酸纸、变色油墨,你能伪造多少美金?

大家好,我是“蒋点数分”,多年以来一直从事数据分析工作。从今天开始,与大家持续分享关于数据分析的学习内容。

本文是第 2 篇,也是【SQL 周周练】系列的第 2 篇。该系列是挑选或自创具有一些难度的 SQL 题目,一周至少更新一篇。后续创作的内容,初步规划的方向包括:

后续内容规划

1.利用 Streamlit 实现 Hive 元数据展示SQL 编辑器、 结合Docker 沙箱实现数据分析 Agent
2.时间序列异常识别、异动归因算法
3.留存率拟合、预测、建模
4.学习 AB 实验、复杂实验设计等
5.自动化机器学习、自动化特征工程
6.因果推断学习
7. ……

欢迎关注,一起学习。

第 2 期题目

题目来源:自创题目,场景来源于香港电影《无双》

一、题目介绍

《无双》是一部很不错的电影,其主题是伪造美钞。虽然已经上映多年,但其中“无酸纸”、“变色油墨”的梗,至今在网上依旧可以看到。其中的一个经典片段 —— “画家”(周润发)嗔怪“李问”(郭富城)订购了500吨无酸纸,说让“李文”活着给他印完(当然结尾展示了郭富城其实才是“画家”)。那么由此而来,我想出了一道 SQL 题:

假设伪钞集团每日给你供应随机数量的变色油墨无酸纸安全线/防伪线(未用完的材料可以留给后面用),凹版印刷机等其他材料和工具也已经准备好。

请你计算每天能制作伪钞多少张,并且根据当天的情况输出第二天最缺哪种材料:

列名
数据类型
注释
date
string
日期
acid_free_paper_supply
int
无酸纸供应量(单位g)
optically_variable_ink_supply
int
变色油墨供应量(单位mg)
security_thread_supply
int
安全线供应量

假设 一张伪钞需要 1g 无酸纸,0.005g 的变色油墨,1 根安全线;印制过程中不考虑损耗

二、题目思路

想要答题的同学,可以先思考答案🤔。
……

……

……

我来谈谈我的思路:这道题目的设计,材料是以固定比例的投入产生一张伪钞,哪种材料相对较少,哪种材料就限制住了伪钞的制造数量;所以可以单独计算三种材料能制造多少伪钞,然后用 least 求最小值,类似“木桶短板理论”。题目里提到了当日未用完的材料,可以后面再用;所以每天不需要单独计算,直接计算从开始到当天 => 这又用上了数据分析师的老朋友“窗口函数”。

下面,我用 NumPy 和 Scipy 生成模拟的数据集:

三、生成模拟数据

只关心 SQL 代码的同学,可以跳转到第四节(我在工作中使用 Hive 较多,因此采用 Hive 的语法)

模拟代码如下:

1. 定义模拟逻辑需要的常量,计算目标数量的伪钞需要多少材料:
import numpy as npimport pandas as pdimport scipy# 随机数种子RANDOM_SEED = 2025# 伪造开始日期START_DATE ="2025-05-01"# 伪造天数NUM_DAY = 10# 需要伪造的伪钞数量(张数,非金额)NUM_TOTAL_COUNTERFEIT_CURRENCY = 1_000_000# 一张伪钞需要多少无酸纸,简化问题只考虑重量(单位 g)ACID_FREE_PAPER_EACH_COUNTERFEIT_CURRENCY = 1# 所有伪钞需要的无酸纸(1.05 是一个冗余度,所有材料类似)ACID_FREE_PAPER_ALL_NEED = ( ACID_FREE_PAPER_EACH_COUNTERFEIT_CURRENCY * NUM_TOTAL_COUNTERFEIT_CURRENCY * 1.05)# 一张伪钞需要多少变色油墨,重量(单位 mg)OPTICALLY_VARIABLE_INK_EACH_COUNTERFEIT_CURRENCY = 5# 所有伪钞需要的变色油墨OPTICALLY_VARIABLE_INK_ALL_NEED = ( OPTICALLY_VARIABLE_INK_EACH_COUNTERFEIT_CURRENCY * NUM_TOTAL_COUNTERFEIT_CURRENCY * 1.05)# 一张伪钞需要多少安全线(单位 条)SECURITY_THREAD_EACH_COUNTERFEIT_CURRENCY = 1# 所有伪钞需要的防伪线SECURITY_THREAD_ALL_NEED = ( SECURITY_THREAD_EACH_COUNTERFEIT_CURRENCY * NUM_TOTAL_COUNTERFEIT_CURRENCY * 1.05)
2. 伪钞需要的材料每天按照随机的权重提供,权重需要归一化:
# 权重范围,用来随机生成数据(需要归一化)WEIGHT_RANGE = (0.2, 2)# 无酸纸每天供应的随机权重acid_free_paper_supply_weight = scipy.stats.uniform.rvs( loc=WEIGHT_RANGE[0], scale=WEIGHT_RANGE[1] - WEIGHT_RANGE[0], size=NUM_DAY, random_state=RANDOM_SEED - 1,)# 变色油墨每天供应的权重optically_variable_ink_supply_weight = scipy.stats.uniform.rvs( loc=WEIGHT_RANGE[0], scale=WEIGHT_RANGE[1] - WEIGHT_RANGE[0], size=NUM_DAY, random_state=RANDOM_SEED,)# 安全线每天供应的权重security_thread_supply_weight = scipy.stats.uniform.rvs( loc=WEIGHT_RANGE[0], scale=WEIGHT_RANGE[1] - WEIGHT_RANGE[0], size=NUM_DAY, random_state=RANDOM_SEED + 1,)# 将权重归一化,使得所有天数的供应比例和为 1acid_free_paper_supply_weight /= acid_free_paper_supply_weight.sum()optically_variable_ink_supply_weight /= optically_variable_ink_supply_weight.sum()security_thread_supply_weight /= security_thread_supply_weight.sum()
3. 将前面生成的数据转为 pd.DataFrame,并输出为 csv 文件:
df = pd.DataFrame( {"acid_free_paper_supply": ACID_FREE_PAPER_ALL_NEED * acid_free_paper_supply_weight,"optically_variable_ink_supply": OPTICALLY_VARIABLE_INK_ALL_NEED * optically_variable_ink_supply_weight,"security_thread_supply": SECURITY_THREAD_ALL_NEED * security_thread_supply_weight })# 四舍五入并转为 intdf = df.round().astype(int)df["date"] = pd.date_range(start=START_DATE, periods=NUM_DAY, freq="D")# 在 Jupyter 中展示数据display(df)out_csv_path ="./dwd_conterfeit_material_daily_supply_records.csv"columns = ["date","acid_free_paper_supply","optically_variable_ink_supply","security_thread_supply"]# 导出 csv 用来让 hive load 数据,utf-8-sig 编码处理中文,虽然表里数据没有中文df[columns].to_csv(out_csv_path, header=False, index=False, encoding="utf-8-sig")
4. 创建新的 Hive 表,并将数据 load 到表中:
from pyhive import hive# 配置连接参数host_ip ="127.0.0.1"port = 10000username ="蒋点数分"with hive.Connection(host=host_ip, port=port) as conn: cursor = conn.cursor() drop_table_sql =""" drop table if exists data_exercise.dwd_conterfeit_material_daily_supply_records""" print(drop_table_sql) cursor.execute(drop_table_sql) create_table_sql =""" create table data_exercise.dwd_conterfeit_material_daily_supply_records ( `date` string comment"日期", acid_free_paper_supply int comment"无酸纸供应量(单位g)", optically_variable_ink_supply int comment"变色油墨供应量(单位mg)", security_thread_supply int comment"安全线供应量" ) comment"伪钞集团每天供应的伪钞原材料数量 | 文章编号:2c3d2561" row format delimited fields terminated by"," stored as textfile""" print(create_table_sql) cursor.execute(create_table_sql) import os load_data_sql = f""" load data local inpath"{os.path.abspath(out_csv_path)}" overwrite into table data_exercise.dwd_conterfeit_material_daily_supply_records""" print(load_data_sql) cursor.execute(load_data_sql) cursor.close()

我通过使用 PyHive 包实现 Python 操作 Hive。我个人电脑部署了 Hadoop 及 Hive,但是没有开启认证,企业里一般常用 Kerberos 来进行大数据集群的认证。

四、SQL 解答

思路在第二节已经说明,下面是代码,细节参见注释。其中 cumulative_conterfeit_all_restriction 等于哪种材料的 cumulative_conterfeit_only... 就可以认为第二天最缺哪种材料(伪钞制造量被这种材料制约)。提示:order by 时,统计的窗口范围默认是 rows between preceding unbounded and current row,写清楚更好。三种材料单独判断,然后用 concat_ws 合并结果(注意其他 SQL 方言不一定有 Hive 的这个函数)。

每天的伪钞制造量 action_daily_production 使用 cumulative_conterfeit_all_restriction 结合窗口函数 lag 减去上一行即可。

 

with calc_single_material_restrict_production as ( -- 计算一种材料限制能造多少美元伪钞 select `date` , acid_free_paper_supply , optically_variable_ink_supply , security_thread_supply -- 只考虑无酸纸,不考虑其他材料和每日最大制造量限制,累计伪钞制作数,下面以此类推 -- 有些材料比例为 1,因此不额外写除以 1 , sum(acid_free_paper_supply) over(orderby `date` asc) as cumulative_conterfeit_only_acid_free_paper -- 注意向下取整 , floor(sum(optically_variable_ink_supply) over(orderby `date` asc) /5) as cumulative_conterfeit_only_optically_variable_ink , sum(security_thread_supply) over(orderby `date` asc) as cumulative_conterfeit_only_security_thread from data_exercise.dwd_conterfeit_material_daily_supply_records), calc_all_restriction_prodection as ( select `date` , acid_free_paper_supply , optically_variable_ink_supply , security_thread_supply , cumulative_conterfeit_only_acid_free_paper , cumulative_conterfeit_only_optically_variable_ink , cumulative_conterfeit_only_security_thread -- 使用 least 计算最小值 , least( cumulative_conterfeit_only_acid_free_paper, cumulative_conterfeit_only_optically_variable_ink, cumulative_conterfeit_only_security_thread ) as cumulative_conterfeit_all_restriction from calc_single_material_restrict_production)select `date`, cumulative_conterfeit_only_acid_free_paper, cumulative_conterfeit_only_optically_variable_ink, cumulative_conterfeit_only_security_thread, cumulative_conterfeit_all_restriction-- 减去上一行的数据,获取每日伪钞制造量, cumulative_conterfeit_all_restriction -lag(cumulative_conterfeit_all_restriction, 1, 0) over(orderby `date` asc) as action_daily_production, if( cumulative_conterfeit_all_restriction >=1000000, null, -- 已经完成目标量,就不写缺哪种材料了 concat_ws(',', if(cumulative_conterfeit_only_acid_free_paper=cumulative_conterfeit_all_restriction, '无酸纸', null), if(cumulative_conterfeit_only_optically_variable_ink=cumulative_conterfeit_all_restriction, '变色油墨', null), if(cumulative_conterfeit_only_security_thread=cumulative_conterfeit_all_restriction, '安全线', null) )) as `最缺的材料`from calc_all_restriction_prodection

 

查询结果如下:

date
cumulative_conterfeit_only_acid_free_paper
cumulative_conterfeit_only_optically_variable_ink
cumulative_conterfeit_only_security_thread
cumulative_conterfeit_all_restriction
action_daily_production
最缺的材料
2025-05-01
139293
36604
51579
36604
36604
变色油墨
2025-05-02
300720
184888
133386
133386
96782
安全线
2025-05-03
360345
339815
303165
303165
169779
安全线
2025-05-04
391211
422448
334383
334383
31218
安全线
2025-05-05
454196
496570
426535
426535
92152
安全线
2025-05-06
497465
551300
598018
497465
70930
无酸纸
2025-05-07
664497
665371
646287
646287
148822
安全线
2025-05-08
821998
754988
805933
754988
108701
变色油墨
2025-05-09
938544
914610
910409
910409
155421
安全线
2025-05-10
1050000
1050000
1050001
1050000
139591
null
vchart 绘制可视化结果

上面的图片,是我在 Python 中使用 pyvchart 库实现的,它是字节跳动开源的 vchart 的 Python 包,当然你也可以使用 pyechartspd.melt 函数用于将“宽数据框”转“长数据框”。代码部分如下:

 

with hive.Connection(host=host_ip, port=port) as conn: select_data_sql = ''' 我给出 SQL 答案 ''' df_outcome = pd.read_sql_query(select_data_sql, conn)from pyvchart import render_chartspec = {"type": 'area',"data": [ {"id": 'lineData',"values": pd.melt(df_outcome[[ 'date','cumulative_conterfeit_only_acid_free_paper', 'cumulative_conterfeit_only_optically_variable_ink', 'cumulative_conterfeit_only_security_thread' ]], id_vars=['date']).to_dict(orient='records') }, {"id": 'areaData',"values": pd.melt(df_outcome[['date','cumulative_conterfeit_all_restriction', '最缺的材料']], id_vars=['date']).to_dict(orient='records') }, ],"series": [ {"type": 'line',"dataId": 'lineData',"xField": 'date',"yField": 'value',"seriesField": 'variable', }, {"type": 'area',"dataId": 'areaData',"xField": 'date',"yField": 'value',"seriesField": 'variable', }, ],};display(render_chart(spec))

😁😁😁
我现在正在求职数据类工作(主要是数据分析或数据科学);如果您有合适的机会,恳请您与我联系,即时到岗,不限城市。您可以发送私信或者联系我(全网同名:蒋点数分)。

From:https://www.cnblogs.com/data-analytics/p/18849986
蒋点数分
100+评论
captcha