Auf dieser Seite wird gezeigt, wie Sie Dateien parallel in Cloud SQL-Instanzen exportieren und importieren.
Hinweise
Für einen Export- oder Importvorgang ist Folgendes zu beachten:
- Sorgen Sie dafür, dass in Ihrer Datenbank ausreichend freier Speicherplatz vorhanden ist.
- Beachten Sie die Best Practices zum Exportieren und Importieren von Daten.
- Prüfen Sie die Ergebnisse nach Abschluss eines Importvorgangs.
Export- und Importvorgänge verwenden Datenbankressourcen, stören typische Datenbankvorgänge jedoch nicht, wenn die Instanz nicht unterdimensioniert ist.
Daten parallel aus Cloud SQL for MySQL in mehrere Dateien exportieren
Die folgenden Abschnitte enthalten Informationen zum parallelen Exportieren von Daten aus Cloud SQL for MySQL in mehrere Dateien.
Erforderliche Rollen und Berechtigungen für den parallelen Export von Daten aus Cloud SQL for MySQL in mehrere Dateien
Zum Exportieren von Daten aus Cloud SQL in Cloud Storage muss der Nutzer, der den Export initiiert, eine der folgenden Rollen haben:
- Die Rolle Cloud SQL-Bearbeiter
- Eine benutzerdefinierte Rolle mit folgenden Berechtigungen:
cloudsql.instances.get
cloudsql.instances.export
Darüber hinaus muss das Dienstkonto für die Cloud SQL-Instanz eine der folgenden Rollen haben:
- Die IAM-Rolle (Identity and Access Management)
storage.objectAdmin
- Eine benutzerdefinierte Rolle mit folgenden Berechtigungen:
storage.objects.create
storage.objects.list
(nur für den parallelen Export von Dateien)storage.objects.delete
(nur für den parallelen Export von Dateien)
Informationen zu IAM-Rollen finden Sie unter Identitäts- und Zugriffsverwaltung.
Daten parallel in mehrere Dateien exportieren
Sie können Daten parallel aus mehreren in Cloud SQL gespeicherten Dateien in Cloud Storage exportieren. Verwenden Sie dazu das DienstprogrammdumpInstance
.
Sobald sich die Dateien in Cloud Storage befinden, können Sie sie in eine andere Cloud SQL-Datenbank importieren. Wenn Sie lokal auf die Daten in den Dateien zugreifen möchten, laden Sie die Daten aus Cloud Storage in Ihre lokale Umgebung herunter.
Wenn Ihre Dateien DEFINER-Klauseln (Ansichten, Trigger, gespeicherte_procedures usw.) enthalten, kann abhängig von der Reihenfolge, in der diese Anweisungen ausgeführt werden, der Import dieser Dateien fehlschlagen. Weitere Informationen über die Verwendung von DEFINER und mögliche Workarounds in Cloud SQL
gcloud
Führen Sie die folgenden Schritte aus, um Daten aus Cloud SQL parallel in mehrere Dateien zu exportieren:
- Cloud Storage-Bucket erstellen.
- Verwenden Sie den Befehl
gcloud sql instances describe
, um das Dienstkonto für die Cloud SQL-Instanz zu ermitteln, aus der Sie Dateien exportieren.gcloud sql instances describe INSTANCE_NAME
- Verwenden Sie das Dienstprogramm
gsutil iam
, um dem Dienstkonto die IAM-Rollestorage.objectAdmin
zuzuweisen. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden. - Verwenden Sie den Befehl
gcloud sql export sql
, um Daten aus Cloud SQL parallel in mehrere Dateien zu exportieren:gcloud sql export sql INSTANCE_NAME gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME \ --offload \ --parallel \ --threads=THREAD_NUMBER \ --database=DATABASE_NAME \ --table=TABLE_EXPRESSION
Ersetzen Sie die folgenden Werte:
- INSTANCE_NAME: der Name der Cloud SQL-Instanz, aus der Sie Dateien parallel exportieren.
- BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
- BUCKET_PATH: der Pfad zum Bucket, in dem die Exportdateien gespeichert sind.
- FOLDER_NAME: der Ordner, in dem die Exportdateien gespeichert sind.
- THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Exportieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien gleichzeitig exportieren möchten, geben Sie
3
als Wert für diesen Parameter an. - DATABASE_NAME (optional): der Name der Datenbanken in der Cloud SQL-Instanz, aus der der Export ausgeführt wird. Wenn Sie keine Datenbanken angeben, exportiert Cloud SQL alle Datenbanken für die Instanz.
- TABLE_EXPRESSION: die Tabellen, die aus der angegebenen Datenbank exportiert werden sollen.
Mit dem Befehl
export sql
werden zwar Ansichten exportiert, jedoch keine Trigger oder gespeicherten Prozeduren. Verwenden Sie zum Exportieren von Triggern oder gespeicherten Prozeduren einen einzelnen Thread für den Export. In diesem Thread wird dasmysqldump
-Tool verwendet.Nach Abschluss des Exports sollten sich Dateien in einem Ordner im Cloud Storage-Bucket im MySQL Shell-Dumpformat befinden.
- Wenn Sie die IAM-Rolle, die Sie unter Erforderliche Rollen und Berechtigungen für den Export aus Cloud SQL for MySQL festgelegt haben, nicht benötigen, revoke Sie sie.
Ersetzen Sie dabei INSTANCE_NAME durch den Namen Ihrer Cloud SQL-Instanz.
Suchen Sie in der Ausgabe nach dem Wert, der dem Feld serviceAccountEmailAddress
zugeordnet ist.
REST Version 1
Führen Sie die folgenden Schritte aus, um Daten aus Cloud SQL parallel in mehrere Dateien zu exportieren:
- Erstellen Sie einen Cloud Storage-Bucket:
gsutil mb -p PROJECT_NAME -l LOCATION_NAME gs://BUCKET_NAME
Ersetzen Sie die folgenden Werte:- PROJECT_NAME: der Name des Google Cloud-Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
- LOCATION_NAME ist der Speicherort des Buckets, in dem Sie die zu exportierenden Dateien speichern möchten. Beispiel:
us-east1
. - BUCKET_NAME: der Name des Buckets. Beachten Sie dabei die Benennungsanforderungen. Beispiel:
my-bucket
- Weisen Sie Ihrer Instanz die IAM-Rolle
legacyBucketWriter
für Ihren Bucket zu. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden. -
Exportieren Sie Daten parallel aus Cloud SQL in mehrere Dateien:
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NAME: der Name des Google Cloud-Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
- INSTANCE_NAME: der Name der Cloud SQL-Instanz, aus der Sie Dateien parallel exportieren.
- BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
- BUCKET_PATH: der Pfad zum Bucket, in dem die Exportdateien gespeichert sind.
- FOLDER_NAME: der Ordner, in dem die Exportdateien gespeichert sind.
- DATABASE_NAME (optional): der Name der Datenbanken in der Cloud SQL-Instanz, aus der der Export ausgeführt wird. Wenn Sie keine Datenbanken angeben, exportiert Cloud SQL alle Datenbanken für die Instanz.
- THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Exportieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien gleichzeitig exportieren möchten, geben Sie
3
als Wert für diesen Parameter an.
HTTP-Methode und URL:
POST https://sqladmin.googleapis.com/v1/projects/PROJECT_NAME/instances/INSTANCE_NAME/export
JSON-Text anfordern:
{ "exportContext": { "fileType": "SQL", "uri": "gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME", "databases": ["DATABASE_NAME"], "offload": [TRUE|FALSE], "sqlExportOptions": { "parallel": [TRUE|FALSE], "threads": [THREAD_NUMBER] } } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten in etwa folgende JSON-Antwort erhalten:
- Wenn Sie die IAM-Rolle, die Sie unter Erforderliche Rollen und Berechtigungen für den Export aus Cloud SQL for MySQL festgelegt haben, nicht benötigen, revoke Sie sie.
Nach Abschluss des Exports sollten sich Dateien in einem Ordner im Cloud Storage-Bucket im MySQL Shell-Dumpformat befinden.
REST v1beta4
Führen Sie die folgenden Schritte aus, um Daten aus Cloud SQL parallel in mehrere Dateien zu exportieren:
- Erstellen Sie einen Cloud Storage-Bucket:
gsutil mb -p PROJECT_NAME -l LOCATION_NAME gs://BUCKET_NAME
Ersetzen Sie die folgenden Werte:- PROJECT_NAME: der Name des Google Cloud-Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
- LOCATION_NAME ist der Speicherort des Buckets, in dem Sie die zu exportierenden Dateien speichern möchten. Beispiel:
us-east1
. - BUCKET_NAME: der Name des Buckets. Beachten Sie dabei die Benennungsanforderungen. Beispiel:
my-bucket
- Weisen Sie Ihrer Instanz die IAM-Rolle
storage.objectAdmin
für Ihren Bucket zu. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden. -
Exportieren Sie Daten parallel aus Cloud SQL in mehrere Dateien:
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NAME: der Name des Google Cloud-Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
- INSTANCE_NAME: der Name der Cloud SQL-Instanz, aus der Sie Dateien parallel exportieren.
- BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
- BUCKET_PATH: der Pfad zum Bucket, in dem die Exportdateien gespeichert sind.
- FOLDER_NAME: der Ordner, in dem die Exportdateien gespeichert sind.
- DATABASE_NAME (optional): der Name der Datenbanken in der Cloud SQL-Instanz, aus der der Export ausgeführt wird. Wenn Sie keine Datenbanken angeben, exportiert Cloud SQL alle Datenbanken für die Instanz.
- THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Exportieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien gleichzeitig exportieren möchten, geben Sie
3
als Wert für diesen Parameter an.
HTTP-Methode und URL:
POST https://sqladmin.googleapis.com/sql/v1beta4/projects/PROJECT_NAME/instances/INSTANCE_NAME/export
JSON-Text anfordern:
{ "exportContext": { "fileType": "SQL", "uri": "gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME", "databases": ["DATABASE_NAME"], "offload": [TRUE|FALSE], "sqlExportOptions": { "parallel": [TRUE|FALSE], "threads": [THREAD_NUMBER] } } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten in etwa folgende JSON-Antwort erhalten:
- Wenn Sie die IAM-Rolle, die Sie unter Erforderliche Rollen und Berechtigungen für den Export aus Cloud SQL for MySQL festgelegt haben, nicht benötigen, revoke Sie sie.
Nach Abschluss des Exports sollten sich Dateien in einem Ordner im Cloud Storage-Bucket im MySQL Shell-Dumpformat befinden.
Daten aus mehreren Dateien parallel in Cloud SQL for MySQL importieren
Die folgenden Abschnitte enthalten Informationen zum parallelen Importieren von Daten aus mehreren Dateien in Cloud SQL for MySQL.
Erforderliche Rollen und Berechtigungen für den parallelen Import von Daten aus mehreren Dateien in Cloud SQL for MySQL
Zum Importieren von Daten aus Cloud Storage in Cloud SQL muss der Nutzer, der den Import initiiert, eine der folgenden Rollen haben:
- Die Rolle Cloud SQL-Bearbeiter
- Eine benutzerdefinierte Rolle mit folgenden Berechtigungen:
cloudsql.instances.get
cloudsql.instances.import
Darüber hinaus muss das Dienstkonto für die Cloud SQL-Instanz eine der folgenden Rollen haben:
storage.objectAdmin
IAM-Rolle.- Eine benutzerdefinierte Rolle mit folgenden Berechtigungen:
storage.objects.get
storage.objects.list
(nur für den parallelen Import von Dateien)
Informationen zu IAM-Rollen finden Sie unter Identitäts- und Zugriffsverwaltung.
Daten in Cloud SQL for MySQL importieren
Sie können Daten parallel aus mehreren Dateien in Cloud Storage in Ihre Datenbank importieren. Verwenden Sie dazu das Dienstprogramm loadDump
.
gcloud
Führen Sie die folgenden Schritte aus, um Daten aus mehreren Dateien parallel in Cloud SQL zu importieren:
- Cloud Storage-Bucket erstellen
Laden Sie die Dateien in den Bucket hoch.
Informationen zum Hochladen von Dateien in Buckets finden Sie unter Objekte aus Dateien hochladen.
- Verwenden Sie den Befehl
gcloud sql instances describe
, um das Dienstkonto für die Cloud SQL-Instanz zu ermitteln, in die Sie Dateien importieren.gcloud sql instances describe INSTANCE_NAME
- Verwenden Sie das Dienstprogramm
gsutil iam
, um dem Dienstkonto die IAM-Rollestorage.objectAdmin
zuzuweisen. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden. - Verwenden Sie den Befehl
gcloud sql import sql
, um Daten aus mehreren Dateien parallel in Cloud SQL zu importieren:gcloud sql import sql INSTANCE_NAME gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME \ --offload \ --parallel \ --threads=THREAD_NUMBER \ --database=DATABASE_NAME
Ersetzen Sie die folgenden Werte:
- INSTANCE_NAME: der Name der Cloud SQL-Instanz, in die Sie Dateien parallel importieren.
- BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
- BUCKET_PATH: der Pfad zum Bucket, in dem die Importdateien gespeichert sind.
- FOLDER_NAME: Der Ordner, in dem die Importdateien gespeichert sind.
- THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Importieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien parallel importieren möchten, geben Sie
3
als Wert für diesen Parameter an. - DATABASE_NAME (optional): der Name der Datenbanken in der Cloud SQL-Instanz, aus der der Import ausgeführt wird. Wenn Sie keine Datenbanken angeben, importiert Cloud SQL alle Datenbanken für die Instanz.
Wenn durch den Befehl ein Fehler wie
ERROR_RDBMS
zurückgegeben wird, prüfen Sie die Berechtigungen. Dieser Fehler wird oft durch Berechtigungsprobleme verursacht. - Wenn Sie die IAM-Berechtigungen, die Sie unter Erforderliche Rollen und Berechtigungen für den Import in Cloud SQL for MySQL festgelegt haben, nicht benötigen, verwenden Sie
gsutil iam
, um sie zu entfernen.
Ersetzen Sie dabei INSTANCE_NAME durch den Namen Ihrer Cloud SQL-Instanz.
Suchen Sie in der Ausgabe nach dem Wert, der dem Feld serviceAccountEmailAddress
zugeordnet ist.
REST Version 1
Führen Sie die folgenden Schritte aus, um Daten aus mehreren Dateien parallel in Cloud SQL zu importieren:
- Erstellen Sie einen Cloud Storage-Bucket:
gsutil mb -p PROJECT_NAME -l LOCATION_NAME gs://BUCKET_NAME
Ersetzen Sie die folgenden Werte:- PROJECT_NAME: der Name des Google Cloud-Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
- LOCATION_NAME: Der Speicherort des Buckets, in dem Sie die zu importierenden Dateien speichern möchten. Beispiel:
us-east1
. - BUCKET_NAME: der Name des Buckets. Beachten Sie dabei die Benennungsanforderungen. Beispiel:
my-bucket
Laden Sie die Dateien in den Bucket hoch.
Informationen zum Hochladen von Dateien in Buckets finden Sie unter Objekte aus Dateien hochladen.
- Weisen Sie Ihrer Instanz die IAM-Rolle
storage.objectAdmin
für Ihren Bucket zu. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden. Importieren Sie Daten aus mehreren Dateien parallel in Cloud SQL:
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NAME: der Name des Google Cloud-Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
- INSTANCE_NAME: der Name der Cloud SQL-Instanz, in die Sie Dateien parallel importieren.
- BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
- BUCKET_PATH: der Pfad zum Bucket, in dem die Importdateien gespeichert sind.
- FOLDER_NAME: Der Ordner, in dem die Importdateien gespeichert sind.
- DATABASE_NAME (optional): der Name der Datenbanken in der Cloud SQL-Instanz, aus der der Import ausgeführt wird. Wenn Sie keine Datenbanken angeben, importiert Cloud SQL alle Datenbanken für die Instanz.
- THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Importieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien parallel importieren möchten, geben Sie
3
als Wert für diesen Parameter an.
HTTP-Methode und URL:
POST https://sqladmin.googleapis.com/v1/projects/PROJECT_NAME/instances/INSTANCE_NAME/import
JSON-Text anfordern:
{ "importContext": { "fileType": "SQL", "uri": "gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME", "databases": ["DATABASE_NAME"], "offload": [TRUE|FALSE], "sqlImportOptions": { "parallel": [TRUE|FALSE], "threads": [THREAD_NUMBER] } } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten in etwa folgende JSON-Antwort erhalten:
Die vollständige Liste der Parameter für die Anfrage finden Sie auf der Seite Cloud SQL Admin API.- Wenn Sie die IAM-Berechtigungen, die Sie unter Erforderliche Rollen und Berechtigungen für den Import in Cloud SQL for MySQL festgelegt haben, nicht benötigen, verwenden Sie
gsutil iam
, um sie zu entfernen.
REST v1beta4
Führen Sie die folgenden Schritte aus, um Daten aus mehreren Dateien parallel in Cloud SQL zu importieren:
- Erstellen Sie einen Cloud Storage-Bucket:
gsutil mb -p PROJECT_NAME -l LOCATION_NAME gs://BUCKET_NAME
Ersetzen Sie die folgenden Werte:- PROJECT_NAME: der Name des Google Cloud-Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
- LOCATION_NAME: Der Speicherort des Buckets, in dem Sie die zu importierenden Dateien speichern möchten. Beispiel:
us-east1
. - BUCKET_NAME: der Name des Buckets. Beachten Sie dabei die Benennungsanforderungen. Beispiel:
my-bucket
Laden Sie die Dateien in den Bucket hoch.
Informationen zum Hochladen von Dateien in Buckets finden Sie unter Objekte aus Dateien hochladen.
- Weisen Sie Ihrer Instanz die IAM-Rolle
storage.objectAdmin
für Ihren Bucket zu. Weitere Informationen zum Festlegen von IAM-Berechtigungen finden Sie unter IAM-Berechtigungen verwenden. Importieren Sie Daten aus mehreren Dateien parallel in Cloud SQL:
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NAME: der Name des Google Cloud-Projekts, das den von Ihnen erstellten Cloud Storage-Bucket enthält.
- INSTANCE_NAME: der Name der Cloud SQL-Instanz, von der Sie Dateien parallel importieren.
- BUCKET_NAME durch den Namen des Cloud Storage-Buckets.
- BUCKET_PATH: der Pfad zum Bucket, in dem die Importdateien gespeichert sind.
- FOLDER_NAME: Der Ordner, in dem die Importdateien gespeichert sind.
- DATABASE_NAME (optional): der Name der Datenbanken in der Cloud SQL-Instanz, aus der der Import ausgeführt wird. Wenn Sie keine Datenbanken angeben, importiert Cloud SQL alle Datenbanken für die Instanz.
- THREAD_NUMBER: Die Anzahl der Threads, die Cloud SQL zum parallelen Importieren von Dateien verwendet. Wenn Sie beispielsweise drei Dateien parallel importieren möchten, geben Sie
3
als Wert für diesen Parameter an.
HTTP-Methode und URL:
POST https://sqladmin.googleapis.com/sql/v1beta4/projects/PROJECT_NAME/instances/INSTANCE_NAME/import
JSON-Text anfordern:
{ "importContext": { "fileType": "SQL", "uri": "gs://BUCKET_NAME/BUCKET_PATH/FOLDER_NAME", "databases": ["DATABASE_NAME"], "offload": [TRUE|FALSE], "sqlImportOptions": { "parallel": [TRUE|FALSE], "threads": [THREAD_NUMBER] } } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten in etwa folgende JSON-Antwort erhalten:
Die vollständige Liste der Parameter für die Anfrage finden Sie auf der Seite Cloud SQL Admin API.- Wenn Sie die IAM-Berechtigungen, die Sie unter Erforderliche Rollen und Berechtigungen für den Import in Cloud SQL for MySQL festgelegt haben, nicht benötigen, verwenden Sie
gsutil iam
, um sie zu entfernen.
Beschränkungen
- Wenn Sie beim parallelen Importieren oder Exportieren von Daten aus mehreren Dateien zu viele Threads angeben, kann dies mehr Arbeitsspeicher nutzen als Ihre Cloud SQL-Instanz hat. In diesem Fall wird eine interne Fehlermeldung angezeigt. Prüfen Sie die Speichernutzung der Instanz und erhöhen Sie nach Bedarf die Größe der Instanz. Weitere Informationen finden Sie unter Informationen zu Instanzeinstellungen.
- Beim Export werden Kommas in Datenbanknamen oder Tabellennamen in den Feldern
databases
odertables
nicht unterstützt. - Achten Sie darauf, dass genügend Speicherplatz für den ersten Download der Dumpdatei vorhanden ist. Andernfalls wird der Fehler
no space left on disk
angezeigt. - Wenn Ihre Instanz nur eine virtuelle CPU (vCPU) hat, können Sie nicht mehrere Dateien parallel importieren oder exportieren. Die Anzahl der vCPUs für Ihre Instanz darf nicht kleiner sein als die Anzahl der Threads, die Sie für den Import- oder Exportvorgang verwenden. Die Anzahl der Threads muss mindestens zwei sein.
- Wenn Sie während eines Exportvorgangs DDL-Anweisungen (Data Definition Language, Datendefinitionssprache) wie
CREATE
,DROP
oderALTER
schreiben, schlägt der Vorgang möglicherweise fehl oder die exportierten Daten sind möglicherweise inkonsistent mit dem Snapshot Wiederherstellung zu einem bestimmten Zeitpunkt. - Wenn ein Importvorgang fehlschlägt, sind möglicherweise nur teilweise Daten importiert. Bei DDL-Anweisungen werden MySQL-Commits automatisch durchgeführt. Bereinigen Sie in diesem Fall die Teildaten, bevor Sie die Daten noch einmal importieren.
Nächste Schritte
- Status der Import- und Exportoperationen überprüfen
- Import und Export von Daten abbrechen
- Best Practices zum Importieren und Exportieren von Daten
- Bekannte Probleme bei Importen und Exporten