web-dev-qa-db-fra.com

Exportation de données de Google Cloud Storage vers Amazon S3

Je souhaite transférer les données d'une table dans BigQuery vers une autre dans Redshift . Mon flux de données prévu est le suivant:

BigQuery -> Google Cloud Storage -> Amazon S3 -> Redshift

Je connais le service de transfert Google Cloud Storage, mais je ne suis pas sûr que cela puisse m'aider. De la documentation Google Cloud:

Service de transfert de stockage en ligne

Cette page décrit le service Cloud Storage Transfer, que vous pouvez utiliser d'importer rapidement des données en ligne dans Google Cloud Storage.

Je comprends que ce service peut être utilisé pour importer des données dans Google Cloud Storage et non pour en exporter.

Existe-t-il un moyen d'exporter des données de Google Cloud Storage vers Amazon S3?

11
Onca

Vous pouvez utiliser gsutil pour copier des données d'un compartiment de Google Cloud Storage vers un compartiment d'Amazon, à l'aide d'une commande telle que:

gsutil -m rsync -rd gs://your-gcs-bucket s3://your-s3-bucket

Notez que l'option -d ci-dessus amène gsutil rsync à supprimer des objets de votre compartiment S3 non présents dans votre compartiment GCS (en plus de l'ajout de nouveaux objets). Vous pouvez désactiver cette option si vous souhaitez simplement ajouter de nouveaux objets de votre GCS à votre compartiment S3.

10
Mike Schwartz

Utilisation de Rclone ( https://rclone.org/ ).

Rclone est un programme en ligne de commande permettant de synchroniser des fichiers et des répertoires entre

Google Drive
Amazon S3
Openstack Swift / Rackspace cloud files / Memset Memstore
Dropbox
Google Cloud Storage
Amazon Drive
Microsoft OneDrive
Hubic
Backblaze B2
Yandex Disk
SFTP
The local filesystem
1
Itsites

Je devais transférer 2 To de données du compartiment Google Cloud Storage vers le compartiment Amazon S3 . Pour cette tâche, j'ai créé le Google Compute Engine de V8CPU (30 Go).

Autorisez la connexion à l'aide de SSH sur le moteur de calcul . Une fois connecté, créez et videz le fichier .boto configuration pour ajouter les informations d'identification AWS. Ajout d'informations d'identification AWS en prenant la référence du lien mentionné.

Puis lancez la commande:

gsutil -m rsync -rd gs: // votre-gcs-seau s3: // votre-s3-seau

Le taux de transfert de données est d'environ 1 Go/s.

J'espère que cela vous aidera .

1
Raxit Solanki

Accédez à n'importe quelle instance ou cloud Shell dans GCP

Tout d'abord, configurez vos informations d'identification AWS dans votre GCP

aws configure

s'il ne reconnaît pas l'installation, AWS CLI, suivez ce guide https://docs.aws.Amazon.com/cli/latest/userguide/cli-chap-install.html

suivez cette URL pour AWS configure https://docs.aws.Amazon.com/cli/latest/userguide/cli-chap-configure.html

Joindre ma capture d'écran

 enter image description here

Puis en utilisant gsutil

gsutil -m rsync -rd gs://storagename s3://bucketname

 enter image description here  enter image description here

16 Go de données transférées en quelques minutes

1
Nursnaaz

Peut-être que je peux vous offrir un autre moyen d’exporter vos données. Utilisez l’outil CloudBerry que vous installez sur Google VW ou votre Amazon EC2a, puis configurez-le pour transférer les données de Google à S3. Que penses-tu du chemin?

0
Mary17