Zum Fußzeileninhalt springen
IRONXL VERWENDEN

Wie man eine CSV-Datei in C# in eine DataTable liest

Die Konvertierung von CSV-Dateien in das DataTable-Format in C# ist mit IronXL unkompliziert: Verwenden Sie WorkBook.LoadCSV(), um eine beliebige CSV-Datei zu lesen, und rufen Sie dann ToDataTable(true) auf, um eine strukturierte DataTable-Datei mit den entsprechenden Spaltenüberschriften zu erstellen, die für den Datenbankimport oder die Datenmanipulation bereit ist.

Die Arbeit mit CSV-Dateien ist eine gängige Aufgabe for .NET Entwickler, egal ob es um den Import von Verkaufsberichten, die Bestandsverwaltung oder die Synchronisierung von Kundendatensätzen geht. Durch die Konvertierung einer CSV-Datei in das Format DataTable lässt sie sich leicht bearbeiten, analysieren oder in eine Datenbanktabelle einfügen. Die IronXL -Bibliothek bietet eine vollwertige Lösung für die Verarbeitung von Excel- und CSV-Operationen in C#-Anwendungen – eine Excel-Installation ist nicht erforderlich.

Das Einlesen von CSV-Dateien in C# kann knifflig sein. Große Dateien, unterschiedliche Trennzeichen oder eingebettete Kommas erfordern oft eine komplexe Parsing-Logik. IronXL vereinfacht dies: Mit nur wenigen Codezeilen können Sie CSV-Dateien von jedem beliebigen Dateipfad lesen, sie in ein DataTable Format mit den entsprechenden Spaltenüberschriften konvertieren und sie für Massendatenbankoperationen vorbereiten. Dieser Ansatz ist besonders nützlich bei der Arbeit mit Excel-Daten in C# .

In diesem Leitfaden erfahren Sie, wie Sie:

  • Laden einer CSV-Datei in ein DataTable in C# unter Verwendung der CSV-Lesefunktionen von IronXL
  • Unterschiedliche Trennzeichen wie Kommas, Tabs oder Semikolons handhaben
  • Importieren Sie Ihre DataTable effizient direkt in SQL Server mithilfe der Exportfunktion.
  • Große Datensätze zuverlässig verwalten, ohne Speicherprobleme zu bekommen

Am Ende dieses Kurses verfügen Sie über einen vollständigen, praktischen Workflow, um CSV-Daten mithilfe von IronXL in Ihren .NET 10-Anwendungen in verwertbare Informationen umzuwandeln.

Warum ist die Konvertierung von CSV zu DataTable wichtig?

Die Konvertierung von CSV in DataTable ermöglicht es Entwicklern, durch Kommas getrennte Werte in strukturierte Objekte zur Weiterverarbeitung umzuwandeln. Egal ob Sie Bestandsdaten, Kundendatensätze oder Transaktionsprotokolle verarbeiten, die effiziente Konvertierung von CSV in das DataTable Format ist von entscheidender Bedeutung. Wenn Sie die erste Zeile als Spaltenüberschriften verwenden, können Sie sicherstellen, dass die DataTable-Spalten mit Ihrem Datenbanktabellenschema übereinstimmen, wodurch sie sich perfekt für Excel-zu-SQL-Operationen eignen.

Traditionelle Ansätze kämpfen oft mit großen Dateien, unterschiedlichen Trennzeichen oder Speicherverwaltung. IronXL beseitigt diese Herausforderungen und verarbeitet verschiedene Trennzeichen, Felder in Anführungszeichen und eingebettete Kommas ohne zusätzlichen Code. Die CSV-Lesefunktionen von IronXL beseitigen häufige Probleme und bieten zusätzliche Funktionen wie Datenvalidierung und Dateigrößenkontrolle.

Wann sollte man DataTable anderen Datenstrukturen vorziehen?

DataTables funktionieren gut, wenn Sie datenbankähnliche Operationen im Speicher benötigen. Sie eignen sich ideal für Szenarien mit SQL Server-Importen, Datenbindung an UI-Steuerelemente oder wenn Sie LINQ-Abfragen auf strukturierten Daten durchführen müssen. Im Gegensatz zu einfachen Arrays oder Listen bieten DataTables Schema-Validierung, Beziehungen zwischen Tabellen und eine direkte Integration mit ADO .NET. Für komplexere Szenarien können Sie je nach Bedarf auch zwischen DataSet und DataTable konvertieren .

Welche häufigen Probleme treten bei der herkömmlichen CSV-Analyse auf?

Die manuelle CSV-Analyse schlägt oft bei Sonderfällen fehl: eingebettete Kommas innerhalb von Anführungszeichen, Zeilenumbrüche in Zellenwerten oder inkonsistente Verwendung von Trennzeichen. Bei großen Dateien wird der Speicherverbrauch problematisch, wenn alles auf einmal in den Speicher geladen werden muss. Probleme bei der Zeichenkodierung können internationale Daten verfälschen, während die Typinferenz numerische Zeichenketten oft fälschlicherweise als Zahlen interpretiert. Aus diesen Gründen ist eine strukturierte Parsing-Bibliothek wie IronXL für Produktionsanwendungen unerlässlich geworden.

Wie lassen sich Speicherprobleme bei großen CSV-Dateien vermeiden?

IronXL verwendet gepufferte Lesetechniken, um große CSV-Dateien effizient zu verarbeiten. Anstatt ganze Dateien auf einmal in den Speicher zu laden, verarbeitet es die Daten in Blöcken, wodurch auch bei großen Dateien ein geringer Speicherbedarf gewährleistet wird. Dadurch eignet es sich für Serverumgebungen mit begrenzten Ressourcen – einschließlich Cloud-Bereitstellungen, bei denen die Speicherzuweisung eingeschränkt ist.

Wie installiert man IronXL?

Für den Einstieg in IronXL ist lediglich die Installation eines einfachen NuGet Pakets erforderlich. Öffnen Sie die NuGet Paket-Manager-Konsole in Visual Studio und führen Sie einen der folgenden Befehle aus:

Install-Package IronXL
Install-Package IronXL
SHELL

Oder falls Sie die .NET Befehlszeilenschnittstelle bevorzugen:

dotnet add package IronXL
dotnet add package IronXL
SHELL

Nach der Installation fügen Sie das IronXL-Namespace zu Ihrem Projekt hinzu:

using IronXL;
using System.Data;
using IronXL;
using System.Data;
$vbLabelText   $csharpLabel

Dies ermöglicht den Zugriff auf alle CSV-Verarbeitungsfunktionen ohne Abhängigkeit von Excel. Weitere Details finden Sie in der IronXL Dokumentation und im NuGet Installationsleitfaden .

Welche Systemvoraussetzungen gelten für IronXL?

IronXL unterstützt .NET Framework 4.6.2+ und .NET Core/5/6/7/8/9/10 und ist somit mit modernen und älteren Anwendungen kompatibel. Es läuft auf Windows-, Linux- und macOS-Plattformen. Für Umgebungen mit besonderen Anforderungen konsultieren Sie bitte die IronXL -Funktionsseite, um die Plattformunterstützung zu überprüfen. Vor dem Kauf steht eine Testlizenz zur Verfügung, mit der Sie den vollen Funktionsumfang testen können.

Wie lässt sich überprüfen, ob die Installation erfolgreich war?

Erstellen Sie ein Testprogramm, das eine CSV-Datei lädt, um die Installation zu überprüfen. Sollten Lizenzierungsmeldungen erscheinen, benötigen Sie einen Lizenzschlüssel . Überprüfen Sie die Paketverweise in Ihrer Projektdatei, um sicherzustellen, dass IronXL in der richtigen Version angezeigt wird. Führen Sie einen einfachen CSV-Lesevorgang durch – wenn dieser fehlerfrei abgeschlossen wird, funktioniert Ihre Installation ordnungsgemäß.

NuGet Mit NuGet installieren

PM >  Install-Package IronXL.Excel

Schauen Sie sich IronXL auf NuGet für eine schnelle Installation an. Mit über 10 Millionen Downloads transformiert es die PDF-Entwicklung mit C#. Sie können auch das DLL herunterladen.

Wie konvertiert man eine CSV-Datei in das Format DataTable?

Der Kern-Workflow in IronXL umfasst nur wenige Codezeilen. Hier erfahren Sie, wie Sie in C# 10+ eine CSV-Datei lesen und sie mithilfe von Top-Level-Anweisungen in das Format DataTable konvertieren:

using IronXL;
using System.Data;

// Load CSV file into a WorkBook object
WorkBook workbook = WorkBook.LoadCSV("sales_data.csv",
    fileFormat: ExcelFileFormat.XLSX);

// Access the default worksheet
WorkSheet worksheet = workbook.DefaultWorkSheet;

// Convert to DataTable with headers
DataTable dataTable = worksheet.ToDataTable(true);

// Display the data
foreach (DataRow row in dataTable.Rows)
{
    foreach (var item in row.ItemArray)
    {
        Console.Write($"{item}\t");
    }
    Console.WriteLine();
}
using IronXL;
using System.Data;

// Load CSV file into a WorkBook object
WorkBook workbook = WorkBook.LoadCSV("sales_data.csv",
    fileFormat: ExcelFileFormat.XLSX);

// Access the default worksheet
WorkSheet worksheet = workbook.DefaultWorkSheet;

// Convert to DataTable with headers
DataTable dataTable = worksheet.ToDataTable(true);

// Display the data
foreach (DataRow row in dataTable.Rows)
{
    foreach (var item in row.ItemArray)
    {
        Console.Write($"{item}\t");
    }
    Console.WriteLine();
}
$vbLabelText   $csharpLabel

Die Methode LoadCSV analysiert Ihre CSV-Datei automatisch und verarbeitet dabei Felder in Anführungszeichen und eingebettete Kommas. Der Parameter fileFormat teilt IronXL mit, wie die CSV-Daten intern interpretiert werden sollen, und stellt sicher, dass sie als Excel-kompatible Struktur behandelt werden. Nach dem Laden wandelt die Methode ToDataTable(true) das Arbeitsblatt in ein DataTable um, wobei der Parameter true angibt, dass die erste Zeile als Spaltenüberschriften verwendet werden soll. Das Ergebnis ist eine saubere, strukturierte DataTable-Datei mit benannten Spalten, die Ihren CSV-Überschriften entsprechen. Weitere fortgeschrittene Manipulationsmöglichkeiten finden Sie im vollständigen IronXL -Leitfaden .

Der Konvertierungsprozess erhält außerdem die Datentypen – Zahlen bleiben numerisch, Datumsangaben werden korrekt interpretiert und Textfelder behalten ihre Formatierung. Diese automatische Typinferenz spart im Vergleich zu manuellen Parsing-Ansätzen erhebliche Entwicklungszeit. Für Szenarien, die eine benutzerdefinierte Datenformatierung erfordern, können Sie die Zellenformatierung vor der Konvertierung anwenden.

Was steuert der Parameter ToDataTable?

Der boolesche Parameter in ToDataTable() bestimmt die Behandlung der Kopfzeile. Wenn die Einstellung true lautet, werden aus der ersten Zeile Spaltennamen in Ihrem DataTable erstellt, wodurch aussagekräftige Feldreferenzen wie CustomerName anstelle von Column1 entstehen. Bei false werden generische Spaltennamen vergeben, was für CSV-Dateien ohne Kopfzeile nützlich ist. Diese Flexibilität unterstützt verschiedene CSV-Formate, die in realen Anwendungen vorkommen. In fortgeschrittenen Szenarien kann es erforderlich sein, Arbeitsmappen mit benutzerdefinierten Optionen zu öffnen , um mehrere Datenbereiche zu verarbeiten.

Wie verarbeitet man CSV-Dateien ohne Kopfzeilen?

Für CSV-Dateien ohne Kopfzeile verwenden Sie ToDataTable(false) und weisen Sie die Spaltennamen anschließend manuell zu. Sie können die Sammlung Columns durchlaufen und aussagekräftige Namen basierend auf Ihrem Datenschema vergeben. Alternativ können Sie vor dem Laden programmatisch eine Kopfzeile in Ihre CSV-Datei einfügen. IronXL unterstützt auch das Erstellen von Excel-Dateien von Grund auf, falls Sie vorhandenen Daten Überschriften hinzufügen müssen.

Welche Auswirkungen haben große CSV-Dateien auf die Performance?

IronXL verarbeitet große CSV-Dateien effizient mithilfe von Puffertechniken. Dateien unter 100 MB werden in der Regel innerhalb von Sekunden geladen. Dank intelligenter Pufferung bleibt die Speichernutzung unabhängig von der Dateigröße unter Kontrolle. Für eine optimale Leistung bei massiven Datensätzen empfiehlt sich die Verarbeitung in Batches unter Verwendung von Bereichsauswahlverfahren. Die Produktseite des IronXL beschreibt die Leistungsmerkmale im Detail.

Wie importiert man einen DataTable in SQL Server?

Sobald Sie Ihren DataTable haben, wird der Import in SQL Server mit SqlBulkCopy effizient. Das folgende Beispiel verwendet C#-Anweisungen auf oberster Ebene:

using System.Data;
using Microsoft.Data.SqlClient;
using IronXL;

// Create connection string
string connectionString = "Data Source=localhost;Initial Catalog=SalesDB;" +
    "Integrated Security=True;TrustServerCertificate=True;";

// Read CSV into DataTable
WorkBook workbook = WorkBook.LoadCSV("inventory_report.csv");
DataTable dataTable = workbook.DefaultWorkSheet.ToDataTable(true);

// Bulk insert into SQL Server
using SqlConnection connection = new SqlConnection(connectionString);
connection.Open();

using SqlBulkCopy bulkCopy = new SqlBulkCopy(connection);

// Set destination table name
bulkCopy.DestinationTableName = "dbo.Inventory";

// Map DataTable columns to SQL table columns
bulkCopy.ColumnMappings.Add("ProductCode", "product_code");
bulkCopy.ColumnMappings.Add("Quantity", "quantity");
bulkCopy.ColumnMappings.Add("LastUpdated", "last_updated");

// Set batch size for better performance
bulkCopy.BatchSize = 1000;

// Write data to SQL Server
bulkCopy.WriteToServer(dataTable);

Console.WriteLine($"Successfully imported {dataTable.Rows.Count} records");
using System.Data;
using Microsoft.Data.SqlClient;
using IronXL;

// Create connection string
string connectionString = "Data Source=localhost;Initial Catalog=SalesDB;" +
    "Integrated Security=True;TrustServerCertificate=True;";

// Read CSV into DataTable
WorkBook workbook = WorkBook.LoadCSV("inventory_report.csv");
DataTable dataTable = workbook.DefaultWorkSheet.ToDataTable(true);

// Bulk insert into SQL Server
using SqlConnection connection = new SqlConnection(connectionString);
connection.Open();

using SqlBulkCopy bulkCopy = new SqlBulkCopy(connection);

// Set destination table name
bulkCopy.DestinationTableName = "dbo.Inventory";

// Map DataTable columns to SQL table columns
bulkCopy.ColumnMappings.Add("ProductCode", "product_code");
bulkCopy.ColumnMappings.Add("Quantity", "quantity");
bulkCopy.ColumnMappings.Add("LastUpdated", "last_updated");

// Set batch size for better performance
bulkCopy.BatchSize = 1000;

// Write data to SQL Server
bulkCopy.WriteToServer(dataTable);

Console.WriteLine($"Successfully imported {dataTable.Rows.Count} records");
$vbLabelText   $csharpLabel

Die Klasse SqlBulkCopy bietet eine hohe Leistungsfähigkeit für den Import großer Datenmengen. Die Sammlung ColumnMappings ordnet DataTable Spalten Datenbankspalten mit anderen Namen zu und gewährleistet so Flexibilität in Ihrem Datenschema. Die Eigenschaft BatchSize optimiert die Speichernutzung, indem Datensätze in Blöcken verarbeitet werden, anstatt alles auf einmal zu laden. Erfahren Sie mehr über die Import- und Exportfunktionen von IronXL .

Um die Datenintegrität weiter zu verbessern, sollten Sie die Implementierung von Transaktionsunterstützung für Ihre Massenkopiervorgänge in Betracht ziehen. Dadurch wird sichergestellt, dass Teilimporte im Fehlerfall rückgängig gemacht werden können. Sie können auch die Funktionen von IronXL zum Schreiben von Excel-Dateien nutzen, um Daten vor dem Import vorab zu validieren.

Hier können Sie mit der Abfrage SELECT * FROM dbo.Inventory; in SSMS überprüfen, ob Ihre CSV-Daten in den SQL Server importiert wurden. Schauen Sie sich zunächst die Daten in der Beispiel-CSV-Datei an:

Notepad-Fenster mit einem Beispiel-CSV-Inventarbericht mit Produktcodes, Mengen und Daten im kommagetrennten Format

Wenn Sie sich nun die Ausgabe der Abfrage ansehen, können Sie erkennen, dass jede Spalte, jede Überschrift und jede Zeile erfolgreich in die Datenbanktabelle kopiert wurde.

SQL-Abfrageergebnisse, die 3 aus einer CSV-Datei importierte Inventardatensätze mit den Produktcodes A100, B200 und C300, deren Mengen und Zeitstempeln in einem Datenbankverwaltungstool anzeigen

Warum ist BatchSize wichtig für die Leistung?

BatchSize steuert, wie viele Zeilen pro Netzwerk-Roundtrip an den SQL Server gesendet werden. Kleinere Batches (100–1000 Zeilen) reduzieren den Speicherverbrauch und ermöglichen die Fortschrittsüberwachung, erhöhen aber den Netzwerk-Overhead. Größere Batches (5000 bis 10000 Zeilen) maximieren den Durchsatz für schnelle Netzwerke, verbrauchen aber mehr Speicherplatz. Die optimale Größe hängt von Ihrer Zeilenbreite, der Netzwerklatenz und dem verfügbaren Speicher ab. Bei komplexen Szenarien mit mehreren Datenbereichen wird die Stapelverarbeitung noch wichtiger.

Wie geht man mit Spaltenzuordnungsfehlern um?

Fehlerhafte Spaltenzuordnungen verursachen Laufzeitausnahmen bei Massenkopiervorgängen. Überprüfen Sie stets, ob die Spaltennamen der Quelle DataTable exakt mit Ihren Mapping-Definitionen übereinstimmen, einschließlich der Groß-/Kleinschreibung. Verwenden Sie die Methode GetOrdinal, um die Existenz einer Spalte vor dem Mapping zu überprüfen. Bei dynamischen Schemas wird die Struktur der Zieltabelle abgefragt und die Zuordnungen werden programmatisch erstellt. Der IronXL- Leitfaden "Excel zu DataSet" kann Ihnen dabei helfen, Spaltennamen vor dem Import zu standardisieren.

Welche Sicherheitsaspekte sind bei Massenimporten zu beachten?

Für Massenimporte sind erhöhte Datenbankberechtigungen erforderlich, typischerweise die Rollen db_datawriter oder bulkadmin. Verwenden Sie nach Möglichkeit die integrierte Authentifizierung, um das Einbetten von Anmeldeinformationen in Verbindungszeichenfolgen zu vermeiden. Implementieren Sie Sicherheit auf Zeilenebene, indem Sie beim Import Audit-Spalten hinzufügen. Um Probleme durch fehlerhafte CSV-Daten zu vermeiden, sollten Sie stets die Datentypen und -bereiche überprüfen. Auf der IronXL -Lizenzseite finden Sie Informationen zu den Anforderungen für den Einsatz in Enterprise .

Wie geht man mit unterschiedlichen CSV-Trennzeichen um?

Nicht alle CSV-Dateien verwenden Kommas. IronXL verarbeitet verschiedene Trennzeichen und eignet sich daher sowohl für internationale Datenformate als auch für ältere Systeme. Das folgende Beispiel veranschaulicht das Laden von tabulatorgetrennten und semikolongetrennten Dateien:

using IronXL;
using System;
using System.Data;
using System.IO;

// --- Tab-delimited file ---
string tsvPath = "export_data.tsv";
WorkBook tsvWorkbook = WorkBook.LoadCSV(tsvPath, ExcelFileFormat.XLSX, "\t");

// --- Semicolon-delimited file ---
string semiPath = "european_data.csv";
string tempCsv = Path.Combine(Path.GetTempPath(), "european_data_comma.csv");

// Replace semicolons with commas for proper parsing
string[] lines = File.ReadAllLines(semiPath);
for (int i = 0; i < lines.Length; i++)
{
    lines[i] = lines[i].Replace(';', ',');
}
File.WriteAllLines(tempCsv, lines);

WorkBook semiWorkbook = WorkBook.LoadCSV(tempCsv, ExcelFileFormat.XLSX);

// Print tab-delimited results
DataTable tsvTable = tsvWorkbook.DefaultWorkSheet.ToDataTable(true);
Console.WriteLine("--- Tab-delimited File ---");
foreach (DataColumn col in tsvTable.Columns)
    Console.Write($"{col.ColumnName}\t");
Console.WriteLine();
foreach (DataRow row in tsvTable.Rows)
{
    foreach (var item in row.ItemArray)
        Console.Write($"{item}\t");
    Console.WriteLine();
}

// Print semicolon-delimited results
DataTable semiTable = semiWorkbook.DefaultWorkSheet.ToDataTable(true);
Console.WriteLine("\n--- Semicolon-delimited File ---");
foreach (DataColumn col in semiTable.Columns)
    Console.Write($"{col.ColumnName}\t");
Console.WriteLine();
foreach (DataRow row in semiTable.Rows)
{
    foreach (var item in row.ItemArray)
        Console.Write($"{item}\t");
    Console.WriteLine();
}
using IronXL;
using System;
using System.Data;
using System.IO;

// --- Tab-delimited file ---
string tsvPath = "export_data.tsv";
WorkBook tsvWorkbook = WorkBook.LoadCSV(tsvPath, ExcelFileFormat.XLSX, "\t");

// --- Semicolon-delimited file ---
string semiPath = "european_data.csv";
string tempCsv = Path.Combine(Path.GetTempPath(), "european_data_comma.csv");

// Replace semicolons with commas for proper parsing
string[] lines = File.ReadAllLines(semiPath);
for (int i = 0; i < lines.Length; i++)
{
    lines[i] = lines[i].Replace(';', ',');
}
File.WriteAllLines(tempCsv, lines);

WorkBook semiWorkbook = WorkBook.LoadCSV(tempCsv, ExcelFileFormat.XLSX);

// Print tab-delimited results
DataTable tsvTable = tsvWorkbook.DefaultWorkSheet.ToDataTable(true);
Console.WriteLine("--- Tab-delimited File ---");
foreach (DataColumn col in tsvTable.Columns)
    Console.Write($"{col.ColumnName}\t");
Console.WriteLine();
foreach (DataRow row in tsvTable.Rows)
{
    foreach (var item in row.ItemArray)
        Console.Write($"{item}\t");
    Console.WriteLine();
}

// Print semicolon-delimited results
DataTable semiTable = semiWorkbook.DefaultWorkSheet.ToDataTable(true);
Console.WriteLine("\n--- Semicolon-delimited File ---");
foreach (DataColumn col in semiTable.Columns)
    Console.Write($"{col.ColumnName}\t");
Console.WriteLine();
foreach (DataRow row in semiTable.Rows)
{
    foreach (var item in row.ItemArray)
        Console.Write($"{item}\t");
    Console.WriteLine();
}
$vbLabelText   $csharpLabel

Dieser Code demonstriert das Laden von CSV-Dateien mit unterschiedlichen Trennzeichen in IronXL WorkBook Objekte. Tabulatorgetrennte Dateien werden mit "\t" als Trennzeichen gelesen, während semikolongetrennte Dateien vor dem Laden in das Standard-CSV-Format konvertiert werden. Das Standardarbeitsblatt jeder Arbeitsmappe wird in ein DataTable mit ToDataTable(true) konvertiert, wobei die erste Zeile als Spaltenüberschriften verwendet wird. Bei komplexeren Dateiformaten können Sie auch den Export von Excel-Daten in verschiedene Formate in Betracht ziehen.

Die Flexibilität im Umgang mit verschiedenen Trennzeichen löst viele reale Herausforderungen beim Parsen von CSV-Dateien. Bei der Arbeit mit europäischen Datenformaten berücksichtigt IronXL durch seine Trennzeichenbehandlung regionale Unterschiede in den Datenformatierungsstandards. Bei Dateien mit inkonsistenten Strukturen muss der Rohtext vor der Übergabe an LoadCSV vorverarbeitet werden.

Der RFC 4180-Standard definiert die CSV-Formatspezifikation, die IronXL für Felder in Anführungszeichen und eingebettete Kommas befolgt. Diese Flexibilität wird auch ausführlich im Stack Overflow Community-Thread zum Thema "CSV in DataTable in .NET einlesen" diskutiert.

Welche Trennzeichen werden von IronXL nativ unterstützt?

IronXL unterstützt gängige Trennzeichen wie Kommas, Tabulatoren und senkrechte Striche (|), and custom single-character delimiters through the LoadCSV Überladung. Für eine optimale Leistung verwenden Sie den integrierten Trennzeichenparameter anstatt Dateien vorzuverarbeiten. Mehrstellige Trennzeichen erfordern eine Vorverarbeitung, wie das obige Beispiel mit dem Semikolon zeigt. Sie können auch Zellen in der resultierenden Arbeitsmappe zusammenführen , wenn Sie die analysierten Daten neu organisieren müssen.

Wie erkennt man das Trennzeichen automatisch?

Die automatische Trennzeichenerkennung analysiert die ersten Zeilen Ihrer CSV-Datei. Zählen Sie die Vorkommen gängiger Trennzeichen (Komma, Tabulator, Semikolon, Pipe) in jeder Zeile. Das am häufigsten vorkommende Zeichen ist wahrscheinlich das Trennzeichen. IronXL bietet keine automatische Erkennung, aber Sie können diese Logik implementieren, bevor Sie LoadCSV aufrufen. Bei Dateien mit inkonsistenten Trennzeichen sollte zuerst die Dateistruktur überprüft und anschließend normalisiert werden.

Wie aus der Konsolenausgabe hervorgeht, sind beide Dateien trotz unterschiedlicher Trennzeichen korrekt in DataTables formatiert.

Microsoft Visual Studio Debug Console zeigt die Ausgabe zweier verschiedener Dateiformate an – eine tabulatorgetrennte Datei mit Fruchtdaten (ID, Name, Menge) und eine semikolongetrennte Datei mit Stadtbevölkerungsdaten

Welche IronXL -Funktionen werden neben CSV unterstützt?

IronXL bietet weit mehr als nur das Lesen von CSV-Dateien. Die Bibliothek deckt das gesamte Spektrum der Excel- und Tabellenkalkulationsoperationen in C# ab und ist somit eine einzige Abhängigkeit für datenzentrierte Anwendungen.

IronXL – Hauptmerkmale for .NET Entwickler
Merkmal Beschreibung Mehr erfahren
Excel-Dateien lesen Laden Sie .xlsx-, .xls- und .csv-Dateien und greifen Sie programmatisch auf Zellendaten zu. Excel lesen
Excel-Dateien schreiben Tabellenkalkulationen erstellen und bearbeiten, Werte, Formeln und Formatvorlagen festlegen. Excel schreiben
Excel-Dateien erstellen Neue Arbeitsmappen und Arbeitsblätter aus dem Code generieren Excel erstellen
Export in DataSet Konvertieren Sie ganze Arbeitsmappen in DataSet-Objekte für Szenarien mit mehreren Tabellen. Excel zu DataSet
Zellformatierung Weisen Sie Zellen Zahlenformate, Schriftarten, Farben und Rahmen zu. Zellformatierung
Importdaten Füllen Sie Arbeitsblätter mit Daten aus Datentabellen, Listen oder Datenbankquellen. Importdaten

Wie exportiert man eine gesamte Arbeitsmappe als Datensatz?

Wenn Ihre CSV-Datei mehrere Abschnitte enthält oder Sie mit mehreren Tabellenblättern arbeiten müssen, verwenden Sie die Methode ToDataSet() für das Objekt WorkBook. Dies gibt ein DataSet zurück, das pro Arbeitsblatt ein DataTable enthält. Die Anleitung "Excel zu DataSet" enthält schrittweise Codebeispiele für dieses Szenario.

Welche Lizenzoptionen stehen zur Verfügung?

IronXL ist für die kommerzielle Nutzung mit einer Vielzahl von Lizenzstufen erhältlich, die auf Ihre Teamgröße und Ihre Bereitstellungsanforderungen abgestimmt sind. Eine kostenlose Testlizenz ermöglicht den Zugriff auf den vollen Funktionsumfang zur Evaluierung. Die Lizenzseite dokumentiert die verfügbaren Pläne, einschließlich lizenzgebührenfreier Weiterverbreitung und SaaS-Optionen.

Was sind die nächsten Schritte?

IronXL macht den Import von CSV-Datenbanken zu einem unkomplizierten und zuverlässigen Prozess. Mit nur wenigen Zeilen Code können Sie:

  • Lesen Sie CSV-Dateien von beliebigen Dateipfaden mithilfe der LoadCSV-Funktionalität.
  • Konvertieren Sie CSV-Daten in ein DataTable-Format mit korrekter Datenformatierung
  • Spaltenüberschriften und DataTable-Spalten durch automatische Analyse beibehalten
  • Importieren Sie Millionen von Zeilen effizient in eine Datenbanktabelle mithilfe von Massenoperationen

Die Bibliothek kümmert sich um die Feinheiten des CSV-Parsings, der Speicherverwaltung und der Datentypkonvertierungen, sodass Sie sich auf Ihre Geschäftslogik konzentrieren können, anstatt sich mit Details der Dateiverarbeitung auseinandersetzen zu müssen. Egal ob Sie ASP.NET Anwendungen erstellen, mit Blazor arbeiten oder .NET 10-Desktop-Apps entwickeln, IronXL bietet eine konsistente und zuverlässige CSV-Verarbeitung auf allen Plattformen.

Bereit zum Start? Die IronXL Dokumentation beschreibt alle Funktionen ausführlich, und mit einer Testlizenz können Sie die gesamte Bibliothek testen. Mit umfangreichen Codebeispielen und klaren API-Referenzen werden Sie im Handumdrehen CSV-Dateien in Ihren .NET 10-Anwendungen effizient verarbeiten können.

Häufig gestellte Fragen

Was ist der beste Weg, um CSV-Dateien in eine DataTable in C# zu lesen?

Mit IronXL können Sie CSV-Dateien effizient in eine DataTable in C# lesen, mit einfachen Codebeispielen, die in unserem Entwicklerhandbuch bereitgestellt werden.

Warum sollte ich IronXL für die CSV-zu-DataTable-Konvertierung verwenden?

IronXL bietet eine unkomplizierte API zum Analysieren von CSV-Dateien und deren Umwandlung in DataTables, sodass Sie Ihre Daten in C# leicht manipulieren und analysieren können.

Kann IronXL große CSV-Dateien bei der Konvertierung in DataTables verarbeiten?

Ja, IronXL ist so entwickelt, dass es große CSV-Dateien effizient verarbeiten und in DataTables umwandeln kann, ohne Leistungsprobleme.

Unterstützt IronXL die Datenmanipulation nach der Umwandlung von CSV in DataTable?

Absolut, sobald Sie eine CSV-Datei mit IronXL in eine DataTable umgewandelt haben, können Sie die Daten nach Bedarf einfach manipulieren und analysieren.

Wie kann ich CSV-Daten mit IronXL in eine Datenbank importieren?

Nachdem Sie Ihre CSV-Datei mit IronXL in eine DataTable umgewandelt haben, können Sie die Daten unter Verwendung der Standard-Datenbankverbindung in C# in eine Datenbank einfügen.

Ist IronXL geeignet für die Verarbeitung von CSV-Dateien in Unternehmensanwendungen?

Ja, IronXL ist so konzipiert, dass es Aufgaben der CSV-Verarbeitung in Unternehmensanwendungen handhaben kann, indem es eine robuste Leistung und Zuverlässigkeit bietet.

Welche Vorteile hat die Umwandlung von CSV-Dateien in DataTables in C#?

Die Umwandlung von CSV-Dateien in DataTables ermöglicht eine einfachere Datenmanipulation, -analyse und -integration mit Datenbanken, wodurch die Datenverarbeitungsfähigkeiten Ihrer Anwendung verbessert werden.

Kann IronXL für andere Tabellenkalkulationsdateiformate außer CSV verwendet werden?

Ja, IronXL unterstützt verschiedene Tabellenkalkulationsformate, einschließlich Excel-Formaten, was vielseitige Datenverarbeitungsmöglichkeiten in C# ermöglicht.

Jordi Bardia
Software Ingenieur
Jordi ist am besten in Python, C# und C++ versiert. Wenn er nicht bei Iron Software seine Fähigkeiten einsetzt, programmiert er Spiele. Mit Verantwortung für Produkttests, Produktentwicklung und -forschung trägt Jordi mit immensem Wert zur kontinuierlichen Produktverbesserung bei. Die abwechslungsreiche Erfahrung hält ihn gefordert und engagiert, ...
Weiterlesen

Iron Support Team

Wir sind 24 Stunden am Tag, 5 Tage die Woche online.
Chat
E-Mail
Rufen Sie mich an