Transoformer.zip
大小:26.51MB
价格:43积分
下载量:0
评分:
5.0
上传者:java1314777
更新日期:2025-09-22

Transformer模型实现长期预测并可视化结果(附代码+数据集+原理介绍)

资源文件列表(大概)

文件名
大小
.idea/
-
.idea/.gitignore
50B
.idea/.name
11B
.idea/aws.xml
304B
.idea/inspectionProfiles/
-
.idea/inspectionProfiles/profiles_settings.xml
174B
.idea/inspectionProfiles/Project_Default.xml
1.34KB
.idea/misc.xml
288B
.idea/modules.xml
281B
.idea/Transformer.iml
327B
.idea/workspace.xml
12.38KB
__pycache__/
-
data/
-
data/ETTh1-Test.csv
48.39KB
data/ETTh1.csv
2.47MB
layers/
-
layers/__pycache__/
-
layers/__pycache__/Embedding.cpython-39.pyc
6.5KB
layers/__pycache__/Invertible.cpython-39.pyc
3.69KB
layers/__pycache__/Projection.cpython-39.pyc
1.2KB
layers/__pycache__/Transformer.cpython-39.pyc
1.92KB
layers/__pycache__/TransformerBlocks.cpython-39.pyc
5.26KB
layers/Embedding.py
4.83KB
layers/Invertible.py
3.22KB
layers/Projection.py
745B
layers/Transformer.py
2.43KB
layers/TransformerBlocks.py
5.2KB
main.py
12.02KB
models/
-
models/predict-Transformer-data-ETTh1/
-
models/predict-Transformer-data-ETTh1/model.pth
28.19MB
requirements.txt
1.24KB
results.png
64.04KB
results/
-
results/OT-ForecastResults.csv
15.06KB
util/
-
util/__pycache__/
-
util/__pycache__/data_factory.cpython-39.pyc
994B
util/__pycache__/data_loader.cpython-39.pyc
6.49KB
util/__pycache__/decomposition.cpython-39.pyc
2.18KB
util/__pycache__/timefeatures.cpython-39.pyc
5.18KB
util/__pycache__/tools.cpython-39.pyc
3.86KB
util/data_factory.py
1.19KB
util/data_loader.py
8.08KB
util/decomposition.py
1.52KB
util/masking.py
831B
util/metrics.py
361B
util/timefeatures.py
3.65KB
util/tools.py
3.59KB

资源内容介绍

这篇文章给大家带来是Transformer在时间序列预测上的应用,这种模型最初是为了处理自然语言处理(NLP)任务而设计的,但由于其独特的架构和能力,它也被用于时间序列分析。Transformer应用于时间序列分析中的基本思想是:Transformer 在时间序列分析中的应用核心在于其自注意力机制,这使其能够有效捕捉时间序列数据中的长期依赖关系。通过并行处理能力和位置编码,Transformer 不仅提高了处理效率,而且确保了时间顺序的准确性。其灵活的模型结构允许调整以适应不同复杂度这篇文章给大家带来是Transformer在时间序列预测上的应用,这种模型最初是为了处理自然语言处理(NLP)任务而设计的,但由于其独特的架构和能力,它也被用于时间序列分析。Transformer应用于时间序列分析中的基本思想是:Transformer 在时间序列分析中的应用核心在于其自注意力机制,这使其能够有效捕捉时间序列数据中的长期依赖关系。通过并行处理能力和位置编码,Transformer 不仅提高了处理效率,而且确保了时间顺序的准确性。定制化训练个人数据集进行训练利用python和pytorch实现
certifi==2023.7.22charset-normalizer==3.3.2contourpy==1.2.0cycler==0.12.1Cython==3.0.5einops==0.7.0fonttools==4.44.0idna==3.4importlib-resources==6.1.1joblib==1.3.2kiwisolver==1.4.5matplotlib==3.8.1numpy==1.26.1packaging==23.2pandas==2.1.2patsy==0.5.3Pillow==10.1.0pmdarima==2.0.4pyparsing==3.1.1python-dateutil==2.8.2pytz==2023.3.post1requests==2.31.0scikit-learn==1.3.2scipy==1.11.3six==1.16.0statsmodels==0.14.0threadpoolctl==3.2.0torch==1.12.1+cu113torchaudio==0.12.1+cu113torchvision==0.13.1+cu113typing_extensions==4.8.0tzdata==2023.3urllib3==2.0.7zipp==3.17.0

用户评论 (0)

发表评论

captcha