Index cen výrobců (PPI) měří průměrnou změnu prodejních cen, za které domácí výrobci prodávají své výstupy, v průběhu času. Ceny zahrnuté do PPI pocházejí z prvních komerčních transakcí produktů a služeb zahrnutých do tohoto indexu.
Každý měsíc se vydává přibližně 10 000 indexů PPI pro jednotlivé produkty a skupin produktů. Indexy PPI jsou k dispozici pro výstup téměř všech odvětví výrobního sektoru ekonomiky USA (těžba, výroba, zemědělství, rybolov a lesnictví) a také pro zemní plyn, elektřinu, stavebnictví a zboží, které dokáže konkurovat zboží vyrobenému ve výrobních sektorech, jako je odpadový materiál a šrot. Z nahlášených příjmů v rámci sčítání ekonomických subjektů z roku 2007 vyplývá, že program PPI pokrývá přibližně 72 procent výstupu sektoru služeb. Data pokrývají odvětví v následujících sektorech: velkoobchod a maloobchod, přeprava a skladování, informace, finance a pojištění, zprostředkování a pronájem nemovitostí, odborné, vědecké a technické služby, služby správy, podpory odpadového hospodářství, zdravotní a sociální péče a ubytování.
README s podrobnými informacemi o této datové sadě najdete v jejím původním umístění. Další informace najdete v nejčastějších dotazech.
Tato datová sada je vytvořená z údajů indexů cen výrobců zveřejněných vládní agenturou BLS (Bureau of Labor Statistics) v USA. Podmínky a ujednání související s používáním této datové sady najdete v informacích o odkazování a autorských právech a v důležitých upozorněních k webovým stránkám.
Umístění úložiště
Tato datová sada se uchovává v oblasti Azure Východní USA. Kvůli přidružení se doporučuje přidělovat výpočetní prostředky v oblasti Východní USA.
Související datové sady
Sdělení
MICROSOFT POSKYTUJE SLUŽBU AZURE OPEN DATASETS TAK, JAK JE. MICROSOFT V SOUVISLOSTI S VAŠÍM POUŽÍVÁNÍM DATOVÝCH SAD NEPOSKYTUJE ŽÁDNÉ ZÁRUKY, AŤ UŽ VÝSLOVNÉ NEBO PŘEDPOKLÁDANÉ, ANI JEJ NIJAK NEPODMIŇUJE. V ROZSAHU POVOLENÉM MÍSTNÍM ZÁKONEM MICROSOFT ODMÍTÁ JAKOUKOLI ODPOVĚDNOST ZA ŠKODY A ZTRÁTY ZPŮSOBENÉ VAŠÍM POUŽÍVÁNÍM DATOVÝCH SAD, VČETNĚ PŘÍMÝCH, NÁSLEDNÝCH, ZVLÁŠTNÍCH, NEPŘÍMÝCH, NÁHODNÝCH NEBO TRESTNÍCH ŠKOD.
Na tuto datovou sadu se vztahují původní podmínky, které Microsoft přijal se zdrojovými daty. Datová sada může obsahovat data pocházející z Microsoftu.
Access
Available in | When to use |
---|---|
Azure Notebooks | Quickly explore the dataset with Jupyter notebooks hosted on Azure or your local machine. |
Azure Databricks | Use this when you need the scale of an Azure managed Spark cluster to process the dataset. |
Azure Synapse | Use this when you need the scale of an Azure managed Spark cluster to process the dataset. |
Preview
item_code | group_code | series_id | year | period | value | footnote_codes | seasonal | series_title | group_name | item_name |
---|---|---|---|---|---|---|---|---|---|---|
120922 | 05 | WPU05120922 | 2008 | M06 | 100 | nan | U | PPI Commodity data for Fuels and related products and power-Prepared bituminous coal underground mine, mechanically crushed/screened/sized only, not seasonally adjusted | Fuels and related products and power | Prepared bituminous coal underground mine, mechanically crushed/screened/sized only |
120922 | 05 | WPU05120922 | 2008 | M07 | 104.6 | nan | U | PPI Commodity data for Fuels and related products and power-Prepared bituminous coal underground mine, mechanically crushed/screened/sized only, not seasonally adjusted | Fuels and related products and power | Prepared bituminous coal underground mine, mechanically crushed/screened/sized only |
120922 | 05 | WPU05120922 | 2008 | M08 | 104.4 | nan | U | PPI Commodity data for Fuels and related products and power-Prepared bituminous coal underground mine, mechanically crushed/screened/sized only, not seasonally adjusted | Fuels and related products and power | Prepared bituminous coal underground mine, mechanically crushed/screened/sized only |
120922 | 05 | WPU05120922 | 2008 | M09 | 98.3 | nan | U | PPI Commodity data for Fuels and related products and power-Prepared bituminous coal underground mine, mechanically crushed/screened/sized only, not seasonally adjusted | Fuels and related products and power | Prepared bituminous coal underground mine, mechanically crushed/screened/sized only |
120922 | 05 | WPU05120922 | 2008 | M10 | 101.5 | nan | U | PPI Commodity data for Fuels and related products and power-Prepared bituminous coal underground mine, mechanically crushed/screened/sized only, not seasonally adjusted | Fuels and related products and power | Prepared bituminous coal underground mine, mechanically crushed/screened/sized only |
120922 | 05 | WPU05120922 | 2008 | M11 | 95.2 | nan | U | PPI Commodity data for Fuels and related products and power-Prepared bituminous coal underground mine, mechanically crushed/screened/sized only, not seasonally adjusted | Fuels and related products and power | Prepared bituminous coal underground mine, mechanically crushed/screened/sized only |
120922 | 05 | WPU05120922 | 2008 | M12 | 96.7 | nan | U | PPI Commodity data for Fuels and related products and power-Prepared bituminous coal underground mine, mechanically crushed/screened/sized only, not seasonally adjusted | Fuels and related products and power | Prepared bituminous coal underground mine, mechanically crushed/screened/sized only |
120922 | 05 | WPU05120922 | 2009 | M01 | 104.2 | nan | U | PPI Commodity data for Fuels and related products and power-Prepared bituminous coal underground mine, mechanically crushed/screened/sized only, not seasonally adjusted | Fuels and related products and power | Prepared bituminous coal underground mine, mechanically crushed/screened/sized only |
120922 | 05 | WPU05120922 | 2009 | M02 | 113.2 | nan | U | PPI Commodity data for Fuels and related products and power-Prepared bituminous coal underground mine, mechanically crushed/screened/sized only, not seasonally adjusted | Fuels and related products and power | Prepared bituminous coal underground mine, mechanically crushed/screened/sized only |
120922 | 05 | WPU05120922 | 2009 | M03 | 121 | nan | U | PPI Commodity data for Fuels and related products and power-Prepared bituminous coal underground mine, mechanically crushed/screened/sized only, not seasonally adjusted | Fuels and related products and power | Prepared bituminous coal underground mine, mechanically crushed/screened/sized only |
Name | Data type | Unique | Values (sample) | Description |
---|---|---|---|---|
footnote_codes | string | 3 | nan P |
Označuje poznámky pro datovou řadu. Většina hodnot je null. Viz třída https://download.bls.gov/pub/time.series/wp/wp.footnote. |
group_code | string | 56 | 02 01 |
Kód určující hlavní skupinu komodit zahrnutých v indexu. Kódy a názvy skupin najdete tady: https://download.bls.gov/pub/time.series/wp/wp.group. |
group_name | string | 56 | Processed foods and feeds Farm products |
Název hlavní skupiny komodit zahrnutých v indexu. Kódy a názvy skupin najdete tady: https://download.bls.gov/pub/time.series/wp/wp.group. |
item_code | string | 2,949 | 1 11 |
Určuje položku, které se týkají pozorovaná data. Názvy a kódy položek najdete tady: https://download.bls.gov/pub/time.series/wp/wp.item. |
item_name | string | 3,410 | Warehousing, storage, and related services Security guard services |
Celé názvy položek. Názvy a kódy položek najdete tady: https://download.bls.gov/pub/time.series/wp/wp.item. |
period | string | 13 | M06 M07 |
Určuje období, za které se data sledují. Seznam hodnot pro období najdete tady: https://download.bls.gov/pub/time.series/wp/wp.period. |
seasonal | string | 2 | U S |
Kód určující, jestli jsou data očištěná od sezónních vlivů. S = očištěná od sezónních vlivů; U = neočištěná |
series_id | string | 5,458 | WPU601 WPU011 |
Kód označující konkrétní řadu. Časová řada označuje sadu dat zaznamenaných za delší období v konzistentních časových intervalech. Podrobnosti k jednotlivým řadám, jako jsou kód, název, rok zahájení a ukončení, najdete tady: https://download.bls.gov/pub/time.series/wp/wp.series. |
series_title | string | 4,379 | PPI Commodity data for Metal treatment services, not seasonally adjusted PPI Commodity data for Mining services, not seasonally adjusted |
Název konkrétní řady. Časová řada označuje sadu dat zaznamenaných za delší období v konzistentních časových intervalech. Podrobnosti k jednotlivým řadám, jako jsou ID, název, rok zahájení a ukončení, najdete tady: https://download.bls.gov/pub/time.series/wp/wp.series. |
value | float | 6,788 | 100.0 99.0999984741211 |
Index cen položky |
year | int | 26 | 2018 2017 |
Určuje rok pozorování |
Azure Notebooks
# This is a package in preview.
from azureml.opendatasets import UsLaborPPICommodity
labor = UsLaborPPICommodity()
labor_df = labor.to_pandas_dataframe()
labor_df.info()
# Pip install packages
import os, sys
!{sys.executable} -m pip install azure-storage-blob
!{sys.executable} -m pip install pyarrow
!{sys.executable} -m pip install pandas
# Azure storage access info
azure_storage_account_name = "azureopendatastorage"
azure_storage_sas_token = r""
container_name = "laborstatisticscontainer"
folder_name = "ppi_commodity/"
from azure.storage.blob import BlockBlobServicefrom azure.storage.blob import BlobServiceClient, BlobClient, ContainerClient
if azure_storage_account_name is None or azure_storage_sas_token is None:
raise Exception(
"Provide your specific name and key for your Azure Storage account--see the Prerequisites section earlier.")
print('Looking for the first parquet under the folder ' +
folder_name + ' in container "' + container_name + '"...')
container_url = f"https://{azure_storage_account_name}.blob.core.windows.net/"
blob_service_client = BlobServiceClient(
container_url, azure_storage_sas_token if azure_storage_sas_token else None)
container_client = blob_service_client.get_container_client(container_name)
blobs = container_client.list_blobs(folder_name)
sorted_blobs = sorted(list(blobs), key=lambda e: e.name, reverse=True)
targetBlobName = ''
for blob in sorted_blobs:
if blob.name.startswith(folder_name) and blob.name.endswith('.parquet'):
targetBlobName = blob.name
break
print('Target blob to download: ' + targetBlobName)
_, filename = os.path.split(targetBlobName)
blob_client = container_client.get_blob_client(targetBlobName)
with open(filename, 'wb') as local_file:
blob_client.download_blob().download_to_stream(local_file)
# Read the parquet file into Pandas data frame
import pandas as pd
print('Reading the parquet file into Pandas data frame')
df = pd.read_parquet(filename)
# you can add your filter at below
print('Loaded as a Pandas data frame: ')
df
Azure Databricks
# This is a package in preview.
from azureml.opendatasets import UsLaborPPICommodity
labor = UsLaborPPICommodity()
labor_df = labor.to_spark_dataframe()
display(labor_df.limit(5))
# Azure storage access info
blob_account_name = "azureopendatastorage"
blob_container_name = "laborstatisticscontainer"
blob_relative_path = "ppi_commodity/"
blob_sas_token = r""
# Allow SPARK to read from Blob remotely
wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
spark.conf.set(
'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
blob_sas_token)
print('Remote blob path: ' + wasbs_path)
# SPARK read parquet, note that it won't load any data yet by now
df = spark.read.parquet(wasbs_path)
print('Register the DataFrame as a SQL temporary view: source')
df.createOrReplaceTempView('source')
# Display top 10 rows
print('Displaying top 10 rows: ')
display(spark.sql('SELECT * FROM source LIMIT 10'))
Azure Synapse
# Azure storage access info
blob_account_name = "azureopendatastorage"
blob_container_name = "laborstatisticscontainer"
blob_relative_path = "ppi_commodity/"
blob_sas_token = r""
# Allow SPARK to read from Blob remotely
wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
spark.conf.set(
'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
blob_sas_token)
print('Remote blob path: ' + wasbs_path)
# SPARK read parquet, note that it won't load any data yet by now
df = spark.read.parquet(wasbs_path)
print('Register the DataFrame as a SQL temporary view: source')
df.createOrReplaceTempView('source')
# Display top 10 rows
print('Displaying top 10 rows: ')
display(spark.sql('SELECT * FROM source LIMIT 10'))