@urban_will Самый простой метод чтения больших файлов - чтение построчно. При таком методе оперативная память не забивается.
1 2 3 |
with open('data.txt', 'r') as file: for line in file: print(line) |
@urban_will
Чтение больших файлов в Python может быть вызовом, особенно если файл имеет очень большой размер и не может быть загружен целиком в память. Для эффективной обработки таких файлов, можно использовать следующие подходы:
Примеры кода для чтения больших файлов:
1 2 3 4 5 6 |
with open('large_file.txt', 'r') as f: while True: block = f.read(1024) # читаем блок размером 1024 байта if not block: break # обработка блока |
1 2 3 4 5 6 7 8 9 10 |
def read_file_in_blocks(file_path, block_size=1024): with open(file_path, 'r') as f: while True: block = f.read(block_size) if not block: return yield block for block in read_file_in_blocks('large_file.txt', block_size=1024): # обработка блока |
1 2 3 4 5 6 |
import csv with open('large_file.csv', 'r') as f: reader = csv.reader(f) for row in reader: # обработка строки |