使用boto3将csv文件保存到s3

新手上路,请多包涵

我正在尝试将 CSV 文件写入并保存到 s3(存在)中的特定文件夹。这是我的代码:

 from io import BytesIO
import pandas as pd
import boto3
s3 = boto3.resource('s3')

d = {'col1': [1, 2], 'col2': [3, 4]}
df = pd.DataFrame(data=d)

csv_buffer = BytesIO()

bucket = 'bucketName/folder/'
filename = "test3.csv"
df.to_csv(csv_buffer)
content = csv_buffer.getvalue()

def to_s3(bucket,filename,content):
  s3.Object(bucket,filename).put(Body=content)

to_s3(bucket,filename,content)

这是我得到的错误:

 Invalid bucket name "bucketName/folder/": Bucket name must match the regex "^[a-zA-Z0-9.\-_]{1,255}$"

我也试过:

 bucket = bucketName/folder

和:

 bucket = bucketName
key = folder/
s3.Object(bucket,key,filename).put(Body=content)

有什么建议么?

原文由 HilaD 发布,翻译遵循 CC BY-SA 4.0 许可协议

阅读 883
2 个回答

这应该工作

def to_s3(bucket,filename, content):
    client = boto3.client('s3')
    k = "folder/subfolder"+filename
    client.put_object(Bucket=bucket, Key=k, Body=content)

原文由 Rakesh 发布,翻译遵循 CC BY-SA 3.0 许可协议

保存到 s3 存储桶也可以使用 upload_file 使用现有的 .csv 文件来完成:

 import boto3
s3 = boto3.resource('s3')

bucket = 'bucket_name'
filename = 'file_name.csv'
s3.meta.client.upload_file(Filename = filename, Bucket= bucket, Key = filename)

原文由 onur 发布,翻译遵循 CC BY-SA 4.0 许可协议

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题