Passer au contenu du pied de page
UTILISATION D'IRONXL

Comment lire un fichier CSV dans une DataTable en C#

La conversion de fichiers CSV en DataTable en C# est simple avec IronXL: utilisez WorkBook.LoadCSV() pour lire n'importe quel fichier CSV, puis appelez ToDataTable(true) pour créer un DataTable structuré avec des en-têtes de colonnes appropriés, prêt pour l'importation dans une base de données ou la manipulation des données.

Travailler avec des fichiers CSV est une tâche courante pour les développeurs .NET , qu'il s'agisse d'importer des rapports de vente, de traiter les stocks ou de synchroniser les dossiers clients. Convertir un fichier CSV en DataTable facilite sa manipulation, son analyse ou son insertion dans une table de base de données. La bibliothèque IronXL offre une solution complète pour la gestion des opérations Excel et CSV dans les applications C# – aucune installation d'Excel n'est requise.

La lecture de fichiers CSV en C# peut s'avérer complexe. Les fichiers volumineux, les délimiteurs différents ou les virgules imbriquées nécessitent souvent une logique d'analyse complexe. IronXL simplifie cela : avec seulement quelques lignes de code, vous pouvez lire des fichiers CSV à partir de n'importe quel chemin de fichier, les convertir en un DataTable avec des en-têtes de colonnes appropriés et les préparer pour des opérations de base de données en masse. Cette approche est particulièrement utile lors de la manipulation de données Excel en C# .

Dans ce guide, vous apprendrez comment :

  • Charger un fichier CSV dans un DataTable en C# en utilisant les fonctionnalités de lecture CSV d'IronXL
  • Gérer différents délimiteurs comme les virgules, les tabulations ou les points-virgules Importez directement et efficacement votre code DataTable dans SQL Server grâce à la fonction d'exportation.
  • Gérer de grands ensembles de données de manière fiable sans rencontrer de problèmes de mémoire

À la fin de cet article, vous disposerez d'un flux de travail complet et pratique pour transformer des données CSV en informations exploitables grâce à IronXL dans vos applications .NET 10.

Pourquoi la conversion CSV vers DataTable est-elle importante ?

La conversion CSV vers DataTable permet aux développeurs de transformer des valeurs séparées par des virgules en objets structurés pour un traitement ultérieur. Que vous gériez des données d'inventaire, des dossiers clients ou des journaux de transactions, convertir efficacement les fichiers CSV en DataTable est crucial. En utilisant la première ligne comme en-têtes de colonnes, vous pouvez garantir que les colonnes de DataTable correspondent au schéma de votre table de base de données, ce qui la rend idéale pour les opérations Excel vers SQL .

Les approches traditionnelles rencontrent souvent des difficultés avec les fichiers volumineux, les différents délimiteurs ou la gestion de la mémoire. IronXL élimine ces difficultés et gère différents délimiteurs, les champs entre guillemets et les virgules imbriquées sans code supplémentaire. Les capacités de lecture CSV d'IronXL éliminent les problèmes courants tout en offrant des fonctionnalités supplémentaires telles que la validation des données et le contrôle de la taille des fichiers.

Quand faut-il utiliser DataTable plutôt que d'autres structures de données ?

DataTables fonctionnent bien lorsque vous avez besoin d'opérations de type base de données en mémoire. Ils sont idéaux pour les scénarios impliquant des importations SQL Server, la liaison de données à des contrôles d'interface utilisateur ou lorsque vous devez effectuer des requêtes LINQ sur des données structurées. Contrairement aux tableaux ou listes simples, DataTables fournit une validation de schéma, des relations entre les tables et une intégration directe avec ADO .NET. Pour les scénarios plus complexes, vous pouvez également convertir entre DataSet et DataTable selon vos besoins.

Quels sont les problèmes courants liés à l'analyse traditionnelle des fichiers CSV ?

L'analyse manuelle des fichiers CSV échoue souvent dans des cas particuliers : virgules imbriquées dans des champs entre guillemets, sauts de ligne dans les valeurs des cellules ou utilisation incohérente des délimiteurs. La consommation de mémoire devient problématique avec les fichiers volumineux lorsqu'il faut tout charger en mémoire en même temps. Les problèmes d'encodage des caractères peuvent corrompre les données internationales, tandis que l'inférence de type interprète souvent à tort les chaînes numériques comme des nombres. C'est pour ces raisons qu'une bibliothèque d'analyse syntaxique structurée comme IronXL est devenue essentielle pour les applications de production.

Comment éviter les problèmes de mémoire avec les fichiers CSV volumineux ?

IronXL met en œuvre des techniques de lecture tamponnée pour gérer efficacement les fichiers CSV volumineux. Au lieu de charger des fichiers entiers en mémoire en une seule fois, il traite les données par blocs, ce qui permet de maintenir une faible empreinte mémoire même avec des fichiers volumineux. Cela le rend adapté aux environnements serveur aux ressources limitées, notamment les déploiements cloud où l'allocation de mémoire est contrainte.

Comment installer IronXL?

Pour commencer avec IronXL, il suffit d'installer un simple package NuGet . Ouvrez la console du gestionnaire de packages NuGet dans Visual Studio et exécutez l'une des commandes suivantes :

Install-Package IronXL
Install-Package IronXL
SHELL

Ou si vous préférez l'interface de ligne de commande .NET :

dotnet add package IronXL
dotnet add package IronXL
SHELL

Une fois installé, ajoutez l'espace de noms IronXL à votre projet :

using IronXL;
using System.Data;
using IronXL;
using System.Data;
$vbLabelText   $csharpLabel

Cela permet d'accéder à toutes les fonctionnalités de traitement CSV sans aucune dépendance à Excel. Pour plus de détails, consultez la documentation IronXL et le guide d'installation NuGet .

Quelles sont les configurations système requises pour IronXL?

IronXL prend en charge .NET Framework 4.6.2+ et .NET Core/5/6/7/8/9/10, ce qui le rend compatible avec les applications modernes et anciennes. Il fonctionne sur les plateformes Windows, Linux et macOS. Pour les environnements présentant des exigences particulières, consultez la page des fonctionnalités IronXL afin de vérifier la compatibilité de la plateforme. Une licence d'essai est disponible pour évaluer l'ensemble des fonctionnalités avant l'achat.

Comment vérifier que l'installation a réussi ?

Créez un programme de test qui charge un fichier CSV pour vérifier l'installation. Si vous rencontrez des messages relatifs à la licence, vous devrez obtenir une clé de licence . Vérifiez les références des packages dans votre fichier de projet pour vous assurer IronXL apparaît avec la version correcte. Effectuez une opération de lecture CSV de base ; si elle se termine sans erreur, votre installation fonctionne correctement.

NuGet Installer avec NuGet

PM >  Install-Package IronXL.Excel

Consultez IronXL sur NuGet pour une installation rapide. Avec plus de 10 millions de téléchargements, il transforme le développement PDF avec C#. Vous pouvez également télécharger le DLL.

Comment convertir un fichier CSV en DataTable ?

Le flux de travail principal d' IronXL ne nécessite que quelques lignes de code. Voici comment lire un fichier CSV et le convertir en DataTable en utilisant des instructions de niveau supérieur en C# 10+ :

using IronXL;
using System.Data;

// Load CSV file into a WorkBook object
WorkBook workbook = WorkBook.LoadCSV("sales_data.csv",
    fileFormat: ExcelFileFormat.XLSX);

// Access the default worksheet
WorkSheet worksheet = workbook.DefaultWorkSheet;

// Convert to DataTable with headers
DataTable dataTable = worksheet.ToDataTable(true);

// Display the data
foreach (DataRow row in dataTable.Rows)
{
    foreach (var item in row.ItemArray)
    {
        Console.Write($"{item}\t");
    }
    Console.WriteLine();
}
using IronXL;
using System.Data;

// Load CSV file into a WorkBook object
WorkBook workbook = WorkBook.LoadCSV("sales_data.csv",
    fileFormat: ExcelFileFormat.XLSX);

// Access the default worksheet
WorkSheet worksheet = workbook.DefaultWorkSheet;

// Convert to DataTable with headers
DataTable dataTable = worksheet.ToDataTable(true);

// Display the data
foreach (DataRow row in dataTable.Rows)
{
    foreach (var item in row.ItemArray)
    {
        Console.Write($"{item}\t");
    }
    Console.WriteLine();
}
$vbLabelText   $csharpLabel

La méthode LoadCSV analyse automatiquement votre fichier CSV, en gérant les champs entre guillemets et les virgules intégrées. Le paramètre fileFormat indique à IronXL comment interpréter les données CSV en interne, en veillant à ce qu'elles soient traitées comme une structure compatible avec Excel. Une fois chargée, la méthode ToDataTable(true) convertit la feuille de calcul en un DataTable, avec le paramètre true indiquant que la première ligne doit être utilisée comme en-têtes de colonne. Cela donne un fichier propre et structuré DataTable avec des colonnes nommées qui correspondent à vos en-têtes CSV. Pour des options de manipulation plus avancées, consultez le guide complet d'utilisation IronXL .

Le processus de conversion préserve également les types de données : les nombres restent numériques, les dates sont correctement analysées et les champs de texte conservent leur formatage. Cette inférence automatique de type permet de gagner un temps de développement considérable par rapport aux approches d'analyse syntaxique manuelle. Pour les scénarios nécessitant une mise en forme personnalisée des données, vous pouvez appliquer la mise en forme des cellules avant la conversion.

Que signifie le contrôle du paramètre ToDataTable ?

Le paramètre booléen dans ToDataTable() détermine la gestion de la ligne d'en-tête. Lorsqu'il est défini sur true, la première ligne devient les noms de colonnes dans votre DataTable, créant des références de champ significatives comme CustomerName au lieu de Column1. Lorsque false, des noms de colonnes génériques sont attribués, ce qui est utile pour les fichiers CSV sans en-tête. Cette flexibilité permet de prendre en charge différents formats CSV rencontrés dans les applications réelles. Dans des scénarios plus avancés, il peut être nécessaire d'ouvrir des classeurs avec des options personnalisées pour gérer plusieurs plages de données.

Comment gérer les fichiers CSV sans en-têtes ?

Pour les fichiers CSV sans en-tête, utilisez ToDataTable(false) et attribuez manuellement les noms de colonnes par la suite. Vous pouvez parcourir la collection Columns et définir des noms significatifs en fonction de votre schéma de données. Vous pouvez également ajouter une ligne d'en-tête au début de votre fichier CSV par programmation avant de le charger. IronXL permet également de créer des fichiers Excel à partir de zéro si vous devez ajouter des en-têtes à des données existantes.

Quelles sont les conséquences des fichiers CSV volumineux sur les performances ?

IronXL traite efficacement les fichiers CSV volumineux grâce à des techniques de mise en mémoire tampon. Les fichiers de moins de 100 Mo se chargent généralement en quelques secondes. Grâce à une mise en mémoire tampon intelligente, l'utilisation de la mémoire reste maîtrisée quelle que soit la taille du fichier. Pour des performances optimales avec des ensembles de données massifs, envisagez un traitement par lots utilisant des techniques de sélection par plage. La page de caractéristiques de IronXL documente en détail ses performances.

Comment importer un DataTable dans SQL Server ?

Une fois que vous avez votre DataTable, son importation dans SQL Server devient efficace grâce à SqlBulkCopy. L'exemple suivant utilise des instructions de niveau supérieur C# :

using System.Data;
using Microsoft.Data.SqlClient;
using IronXL;

// Create connection string
string connectionString = "Data Source=localhost;Initial Catalog=SalesDB;" +
    "Integrated Security=True;TrustServerCertificate=True;";

// Read CSV into DataTable
WorkBook workbook = WorkBook.LoadCSV("inventory_report.csv");
DataTable dataTable = workbook.DefaultWorkSheet.ToDataTable(true);

// Bulk insert into SQL Server
using SqlConnection connection = new SqlConnection(connectionString);
connection.Open();

using SqlBulkCopy bulkCopy = new SqlBulkCopy(connection);

// Set destination table name
bulkCopy.DestinationTableName = "dbo.Inventory";

// Map DataTable columns to SQL table columns
bulkCopy.ColumnMappings.Add("ProductCode", "product_code");
bulkCopy.ColumnMappings.Add("Quantity", "quantity");
bulkCopy.ColumnMappings.Add("LastUpdated", "last_updated");

// Set batch size for better performance
bulkCopy.BatchSize = 1000;

// Write data to SQL Server
bulkCopy.WriteToServer(dataTable);

Console.WriteLine($"Successfully imported {dataTable.Rows.Count} records");
using System.Data;
using Microsoft.Data.SqlClient;
using IronXL;

// Create connection string
string connectionString = "Data Source=localhost;Initial Catalog=SalesDB;" +
    "Integrated Security=True;TrustServerCertificate=True;";

// Read CSV into DataTable
WorkBook workbook = WorkBook.LoadCSV("inventory_report.csv");
DataTable dataTable = workbook.DefaultWorkSheet.ToDataTable(true);

// Bulk insert into SQL Server
using SqlConnection connection = new SqlConnection(connectionString);
connection.Open();

using SqlBulkCopy bulkCopy = new SqlBulkCopy(connection);

// Set destination table name
bulkCopy.DestinationTableName = "dbo.Inventory";

// Map DataTable columns to SQL table columns
bulkCopy.ColumnMappings.Add("ProductCode", "product_code");
bulkCopy.ColumnMappings.Add("Quantity", "quantity");
bulkCopy.ColumnMappings.Add("LastUpdated", "last_updated");

// Set batch size for better performance
bulkCopy.BatchSize = 1000;

// Write data to SQL Server
bulkCopy.WriteToServer(dataTable);

Console.WriteLine($"Successfully imported {dataTable.Rows.Count} records");
$vbLabelText   $csharpLabel

La classe SqlBulkCopy offre des performances élevées pour les importations de données à grande échelle. La collection ColumnMappings mappe les colonnes DataTable à des colonnes de base de données avec des noms différents, assurant ainsi la flexibilité de votre schéma de données. La propriété BatchSize optimise l'utilisation de la mémoire en traitant les enregistrements par morceaux plutôt qu'en chargeant tout en une seule fois. Découvrez plus en détail les fonctionnalités d'importation et d'exportation d'IronXL .

Pour une intégrité des données accrue, envisagez la mise en œuvre d'une prise en charge des transactions pour vos opérations de copie en masse. Cela permet d'annuler les importations partielles en cas d'erreur. Vous pouvez également utiliser les fonctionnalités d'écriture de fichiers Excel d'IronXL pour pré-valider les données avant l'importation.

Ici, vous pouvez utiliser la requête SELECT * FROM dbo.Inventory; dans SSMS pour vérifier que vos données CSV ont été importées dans le serveur SQL. Tout d'abord, examinez les données utilisées dans l'exemple de fichier CSV :

Fenêtre du Bloc-notes affichant un exemple de rapport d'inventaire CSV avec les codes produits, les quantités et les dates au format CSV

Si vous examinez le résultat de la requête, vous pouvez constater qu'elle a correctement copié chaque colonne, en-tête et ligne dans la table de la base de données.

Résultats d'une requête SQL affichant 3 enregistrements d'inventaire importés d'un fichier CSV avec les codes produits A100, B200 et C300, leurs quantités et horodatages dans un outil de gestion de base de données.

Pourquoi BatchSize est-il important pour les performances ?

BatchSize contrôle le nombre de lignes envoyées à SQL Server à chaque aller-retour réseau. Les lots plus petits (100 à 1 000 lignes) réduisent l'utilisation de la mémoire et permettent le suivi de la progression, mais augmentent la charge réseau. Les lots plus importants (5000 à 10000 lignes) maximisent le débit pour les réseaux rapides, mais consomment plus de mémoire. La taille optimale dépend de la largeur de vos lignes, de la latence du réseau et de la mémoire disponible. Pour les scénarios complexes impliquant plusieurs plages de données, le traitement par lots devient encore plus crucial.

Comment gérez-vous les incohérences de mappage des colonnes ?

Les incohérences de mappage des colonnes provoquent des exceptions d'exécution lors des opérations de copie en masse. Vérifiez toujours que les noms de colonnes de la source DataTable correspondent exactement à vos définitions de mappage, y compris la sensibilité à la casse. Utilisez la méthode GetOrdinal pour valider l'existence de la colonne avant le mappage. Pour les schémas dynamiques, interrogez la structure de la table de destination et créez les mappages par programmation. Le guide d'IronXL sur la conversion d'Excel en DataSet peut vous aider à standardiser les noms de colonnes avant l'importation.

Quelles sont les considérations de sécurité applicables aux importations en vrac ?

Les importations en masse nécessitent des autorisations de base de données élevées, généralement les rôles db_datawriter ou bulkadmin. Utilisez l'authentification intégrée lorsque cela est possible afin d'éviter d'inclure les informations d'identification dans les chaînes de connexion. Mettez en œuvre une sécurité au niveau des lignes en ajoutant des colonnes d'audit lors de l'importation. Vérifiez toujours les types et les plages de données afin d'éviter les problèmes liés à des données CSV malformées. Consultez la page relative aux licences IronXL si vous souhaitez comprendre les exigences de déploiement en Enterprise .

Comment gérer les différents délimiteurs CSV ?

Tous les fichiers CSV n'utilisent pas de virgules. IronXL gère différents délimiteurs, ce qui le rend pratique pour les formats de données internationaux ou les systèmes existants. L'exemple suivant illustre le chargement de fichiers délimités par des tabulations et par des points-virgules :

using IronXL;
using System;
using System.Data;
using System.IO;

// --- Tab-delimited file ---
string tsvPath = "export_data.tsv";
WorkBook tsvWorkbook = WorkBook.LoadCSV(tsvPath, ExcelFileFormat.XLSX, "\t");

// --- Semicolon-delimited file ---
string semiPath = "european_data.csv";
string tempCsv = Path.Combine(Path.GetTempPath(), "european_data_comma.csv");

// Replace semicolons with commas for proper parsing
string[] lines = File.ReadAllLines(semiPath);
for (int i = 0; i < lines.Length; i++)
{
    lines[i] = lines[i].Replace(';', ',');
}
File.WriteAllLines(tempCsv, lines);

WorkBook semiWorkbook = WorkBook.LoadCSV(tempCsv, ExcelFileFormat.XLSX);

// Print tab-delimited results
DataTable tsvTable = tsvWorkbook.DefaultWorkSheet.ToDataTable(true);
Console.WriteLine("--- Tab-delimited File ---");
foreach (DataColumn col in tsvTable.Columns)
    Console.Write($"{col.ColumnName}\t");
Console.WriteLine();
foreach (DataRow row in tsvTable.Rows)
{
    foreach (var item in row.ItemArray)
        Console.Write($"{item}\t");
    Console.WriteLine();
}

// Print semicolon-delimited results
DataTable semiTable = semiWorkbook.DefaultWorkSheet.ToDataTable(true);
Console.WriteLine("\n--- Semicolon-delimited File ---");
foreach (DataColumn col in semiTable.Columns)
    Console.Write($"{col.ColumnName}\t");
Console.WriteLine();
foreach (DataRow row in semiTable.Rows)
{
    foreach (var item in row.ItemArray)
        Console.Write($"{item}\t");
    Console.WriteLine();
}
using IronXL;
using System;
using System.Data;
using System.IO;

// --- Tab-delimited file ---
string tsvPath = "export_data.tsv";
WorkBook tsvWorkbook = WorkBook.LoadCSV(tsvPath, ExcelFileFormat.XLSX, "\t");

// --- Semicolon-delimited file ---
string semiPath = "european_data.csv";
string tempCsv = Path.Combine(Path.GetTempPath(), "european_data_comma.csv");

// Replace semicolons with commas for proper parsing
string[] lines = File.ReadAllLines(semiPath);
for (int i = 0; i < lines.Length; i++)
{
    lines[i] = lines[i].Replace(';', ',');
}
File.WriteAllLines(tempCsv, lines);

WorkBook semiWorkbook = WorkBook.LoadCSV(tempCsv, ExcelFileFormat.XLSX);

// Print tab-delimited results
DataTable tsvTable = tsvWorkbook.DefaultWorkSheet.ToDataTable(true);
Console.WriteLine("--- Tab-delimited File ---");
foreach (DataColumn col in tsvTable.Columns)
    Console.Write($"{col.ColumnName}\t");
Console.WriteLine();
foreach (DataRow row in tsvTable.Rows)
{
    foreach (var item in row.ItemArray)
        Console.Write($"{item}\t");
    Console.WriteLine();
}

// Print semicolon-delimited results
DataTable semiTable = semiWorkbook.DefaultWorkSheet.ToDataTable(true);
Console.WriteLine("\n--- Semicolon-delimited File ---");
foreach (DataColumn col in semiTable.Columns)
    Console.Write($"{col.ColumnName}\t");
Console.WriteLine();
foreach (DataRow row in semiTable.Rows)
{
    foreach (var item in row.ItemArray)
        Console.Write($"{item}\t");
    Console.WriteLine();
}
$vbLabelText   $csharpLabel

Ce code illustre le chargement de fichiers CSV avec différents délimiteurs dans des objets IronXL WorkBook. Les fichiers délimités par des tabulations sont lus en utilisant "\t" comme séparateur, tandis que les fichiers délimités par des points-virgules sont convertis au format CSV standard avant d'être chargés. La feuille de calcul par défaut de chaque classeur est convertie en un DataTable avec ToDataTable(true), qui utilise la première ligne comme en-têtes de colonne. Pour les scénarios de formats de fichiers plus complexes, vous pouvez également envisager d'exporter des données Excel vers différents formats.

La possibilité de gérer différents délimiteurs permet de résoudre de nombreux problèmes concrets d'analyse des fichiers CSV. Lors de l'utilisation de formats de données européens, la gestion des délimiteurs d'IronXL prend en compte les différences régionales en matière de normes de formatage des données. Pour les fichiers dont la structure est incohérente, prétraitez le texte brut avant de le transmettre à LoadCSV.

La norme RFC 4180 définit la spécification du format CSV IronXL suit pour les champs entre guillemets et les virgules intégrées. Cette flexibilité est également abordée en détail dans le fil de discussion de la communauté Stack Overflow sur la lecture de fichiers CSV dans DataTable en .NET .

Quels délimiteurs IronXL prend-il en charge nativement ?

IronXL prend en charge les délimiteurs courants, notamment les virgules, les tabulations et les barres verticales (|), and custom single-character delimiters through the Surcharge de LoadCSV. Pour des performances optimales, utilisez le paramètre de délimitation intégré plutôt que de prétraiter les fichiers. Les délimiteurs à plusieurs caractères nécessitent un prétraitement, comme le montre l'exemple du point-virgule ci-dessus. Vous pouvez également fusionner des cellules dans le classeur résultant si vous devez réorganiser les données analysées.

Comment détecter automatiquement le délimiteur ?

La détection automatique des délimiteurs consiste à analyser les premières lignes de votre fichier CSV. Comptez les occurrences des délimiteurs courants (virgule, tabulation, point-virgule, barre verticale) sur chaque ligne. Le caractère apparaissant le plus fréquemment est probablement le délimiteur. IronXL ne fournit pas de détection automatique, mais vous pouvez implémenter cette logique avant d'appeler LoadCSV. Pour les fichiers dont les délimiteurs sont incohérents, validez d'abord la structure du fichier, puis normalisez-la.

Comme le montre la sortie de la console, les deux fichiers sont correctement formatés dans DataTables, malgré des délimiteurs de départ différents.

Console de débogage de Microsoft Visual Studio affichant la sortie de deux formats de fichiers différents : un fichier délimité par des tabulations contenant des données sur les fruits (ID, Nom, Quantité) et un fichier délimité par des points-virgules contenant des données sur la population des villes

Quelles sont les fonctionnalités IronXL prises en charge en plus du format CSV ?

IronXL offre bien plus que la simple lecture de fichiers CSV. Cette bibliothèque gère l'ensemble des opérations Excel et tableur en C#, ce qui en fait une dépendance unique pour les applications axées sur les données.

Fonctionnalités clés d' IronXL pour les développeurs .NET
Caractéristique Description du projet En savoir plus
Lire des fichiers Excel Charger des fichiers .xlsx, .xls et .csv et accéder aux données des cellules par programmation Lire Excel
Écrire des fichiers Excel Créez et modifiez des feuilles de calcul, définissez des valeurs, des formules et des styles. Écrire dans Excel
Créer des fichiers Excel Générer de nouveaux classeurs et feuilles de calcul à partir de code Créer un fichier Excel
Exporter vers DataSet Convertir des classeurs entiers en objets DataSet pour les scénarios multi-tables Excel vers DataSet
Formatage de cellule Appliquer des formats numériques, des polices, des couleurs et des bordures aux cellules Mise en forme des cellules
Données d'importation Remplissez les feuilles de calcul à partir de sources de données DataTable, List ou de bases de données. Données d'importation

Comment exporter un classeur entier sous forme d'ensemble de données ?

Lorsque votre fichier CSV contient plusieurs sections ou que vous devez travailler avec plusieurs feuilles, utilisez la méthode ToDataSet() sur l'objet WorkBook. Cela renvoie un DataSet contenant un DataTable par feuille de calcul. Le guide pratique " Excel vers DataSet " fournit des exemples de code étape par étape pour ce scénario.

Quelles sont les options de licence disponibles ?

IronXL est disponible pour un usage commercial avec différents niveaux de licence pour s'adapter à la taille de votre équipe et à vos besoins de déploiement. Une licence d'essai gratuite donne accès à l'ensemble des fonctionnalités pour évaluation. La page relative aux licences détaille les plans disponibles, notamment la redistribution sans redevance et les options SaaS.

Quelles sont les prochaines étapes?

IronXL transforme l'importation de bases de données CSV en un processus simple et fiable. Avec seulement quelques lignes de code, vous pouvez :

  • Lire les fichiers CSV à partir de n'importe quel chemin d'accès grâce à la fonction LoadCSV
  • Convertir les données CSV en un fichier DataTable avec une mise en forme correcte
  • Préserver les en-têtes de colonnes et les colonnes DataTable grâce à une analyse automatique Importez efficacement des millions de lignes dans une table de base de données grâce aux opérations par lots.

La bibliothèque gère les subtilités de l'analyse CSV, de la gestion de la mémoire et des conversions de types de données, vous permettant ainsi de vous concentrer sur votre logique métier plutôt que sur les détails du traitement des fichiers. Que vous créiez des applications ASP.NET , travailliez avec Blazor ou développiez des applications de bureau .NET 10, IronXL assure un traitement CSV cohérent et fiable sur toutes les plateformes.

Prêt à démarrer ? La documentation IronXL couvre chaque fonctionnalité en détail, et une licence d'essai vous permet d'évaluer la bibliothèque complète. Grâce à de nombreux exemples de code et à des références API claires, vous traiterez efficacement les fichiers CSV dans vos applications .NET 10 en un rien de temps.

Questions Fréquemment Posées

Quel est le meilleur moyen de lire des fichiers CSV dans une DataTable en C#?

En utilisant IronXL, vous pouvez efficacement lire des fichiers CSV dans une DataTable en C# avec des exemples de code simples fournis dans notre guide du développeur.

Pourquoi devrais-je utiliser IronXL pour la conversion de CSV en DataTable?

IronXL offre une API simple pour analyser des fichiers CSV et les convertir en DataTables, vous permettant de manipuler et d'analyser facilement vos données en C#.

IronXL peut-il gérer de grands fichiers CSV lors de la conversion en DataTables?

Oui, IronXL est conçu pour traiter efficacement de grands fichiers CSV et les convertir en DataTables sans problèmes de performance.

IronXL prend-il en charge la manipulation des données après la conversion d'un CSV en DataTable?

Absolument, une fois que vous avez converti un fichier CSV en DataTable avec IronXL, vous pouvez facilement manipuler et analyser les données selon les besoins.

Comment puis-je importer des données CSV dans une base de données en utilisant IronXL?

Après avoir converti votre fichier CSV en DataTable avec IronXL, vous pouvez insérer les données dans une base de données en utilisant la connectivité standard des bases de données en C#.

IronXL est-il adapté au traitement des fichiers CSV dans les applications d'entreprise?

Oui, IronXL est conçu pour gérer les tâches de traitement de CSV dans les applications d'entreprise, offrant des performances et une fiabilité robustes.

Quels sont les avantages de convertir des fichiers CSV en DataTables en C#?

Convertir des fichiers CSV en DataTables permet une manipulation, une analyse et une intégration plus faciles avec les bases de données, améliorant les capacités de gestion des données de votre application.

IronXL peut-il être utilisé pour d'autres types de fichiers de feuille de calcul en dehors des CSV?

Oui, IronXL prend en charge divers types de fichiers de feuille de calcul, y compris les formats Excel, permettant des capacités polyvalentes de traitement des données en C#.

Jordi Bardia
Ingénieur logiciel
Jordi est le plus compétent en Python, C# et C++, et lorsqu'il ne met pas à profit ses compétences chez Iron Software, il programme des jeux. Partageant les responsabilités des tests de produit, du développement de produit et de la recherche, Jordi apporte une immense valeur à l'amé...
Lire la suite

Équipe de soutien Iron

Nous sommes en ligne 24 heures sur 24, 5 jours sur 7.
Chat
Email
Appelez-moi