GuilleSQL :: Microsoft SQL Server, SSIS, y más !!

Borrado de Filas por Lotes con ROWCOUNT en SQL Server


En muchas ocasiones tenemos que realizar operaciones de borrado masivo de datos en SQL Server, una situación que nos puede generar problemas de diferente tipo, desde crecimientos de Log que nos pueden provocar incidencias de espacio en disco (con todas las implicaciones que esto puede llevar en entornos críticos de producción) hasta tiempos de ejecución elevados. Un truco habitual es realizar los borrados por lotes, ya que no es lo mismo borrar un millón de filas en una transacción, que borrarlo en un millón de transacciones. Algo que podemos hacer fácilmente utilizando un bucle con ROWCOUNT.

Resulta habitual tener que realizar operaciones masivas de borrado en bases de datos SQL Server, algo que no tiene mayor importancia en pequeñas bases de datos, pero cuando el tamaño de la base de datos y el número de filas aumenta hasta grandes cifras, y más aún en entornos críticos de producción, la cosa se vuelve más delicada, los tiempos de ejecución aumentan, y los riesgos de incidencias de espacio en disco y de consumos de recursos de máquinas aumentan.

Un truco muy común es realizar los borrados por lotes, algo que podemos hacer fácilmente utilizando un bucle con ROWCOUNT. Por ejemplo, podemos borrar 50.000 filas de una en una empleando 60 segundos (50.000 transacciones), o de 1000 en 1000 empleando 1 segundo (50 transacciones).

También podríamos borrar las 50.000 filas a la vez (una única transacción), pero cuanto más filas son, es más recomendable realizarlo por tramos o lotes. De hecho:

  • Si podemos configurar temporalmente el Recovery Model en simple, nos interesará realizar el borrado por lotes para evitar el crecimiento del LOG, pero sin el lastre que supone el borrado de fila en fila. Ojo, que cambiar el Recover Model de Full a Simple, tiene un impacto directo en la secuencia de Backup, y si necesitásemos realizar un RESTORE por cualquier motivo, estaremos en una situación muy comprometida. Ojito con cambiar los Recovery Model en entornos productivos.
  • En caso contrario, podríamos intercalar Backups de Log para evitar el crecimiento del LOG.

Así podremos conseguir un tiempo de ejecución del borrado óptimo, evitando efectos colaterales como el crecimiento de los Logs y llenados de disco.

También deberemos recordar que al finalizar, nos puede interesar realizar una Reindexación y Actualización de Estadísticas, además de un Shrink (bueno, yo personalmente no estoy a favor de los Shrinks, salvo muy raras excepciones).

Bueno, sin más rollo, aquí va un ejemplo.

--*** Insertar filas de ejemplo ***
USE GuilleSQL
GO

 

DECLARE @COUNT INT
SET @COUNT=500000
SET NOCOUNT ON;

WHILE @COUNT > 0
BEGIN
   INSERT INTO dbo.test_table (descri)  VALUES ('x')
   SET @COUNT=@COUNT-1
END
GO

-- delete from dbo.test_table where id>4000000
-- select * into dbo.temp_test_table from dbo.test_table
-- insert into dbo.test_table (descri) select descri from dbo.temp_test_table
-- select count(*) from dbo.test_table
-- backup database GuilleSQL to disk='c:\temp\GuilleSQL.bak'
-- backup log GuilleSQL to disk='c:\temp\GuilleSQL.01.trn'
-- backup log GuilleSQL to disk='c:\temp\GuilleSQL.02.trn'

 

--*** Borrar filas de 1000 en 1000, utilizando ROWCOUNT y un bucle ***
PRINT CONVERT(VARCHAR(20), GETDATE(), 113)

DECLARE @TMP_ROWCOUNT INT
SET NOCOUNT ON;
SET ROWCOUNT 1000;
 
DELETE FROM dbo.test_table
SET @TMP_ROWCOUNT=@@rowcount
--PRINT CAST(@TMP_ROWCOUNT AS VARCHAR(100)) + ' rows has been deleted';

WHILE @TMP_ROWCOUNT > 0
BEGIN
  DELETE FROM dbo.test_table
  SET @TMP_ROWCOUNT=@@rowcount
  --PRINT CAST(@TMP_ROWCOUNT AS VARCHAR(100)) + ' rows has been deleted';
END
SET rowcount 0

PRINT CONVERT(VARCHAR(20), GETDATE(), 113)
GO

Borrado de 4.000.000 de filas de 260 Bytes

Antes de finalizar vamos a poner el ejemplo de distintas formas de borrado de 4.000.000 de filas de una tabla con un tamaño aproximado de 260 Bytes por fila, repitiendo las mismas pruebas utilizando el Recovery Model a Simple y a Full, para de este modo poder comparar los resultados obtenidos.

Empezamos con el Recovery Model a Simple:

  • DELETE *. Tarda 113 seg con un crecimiento de Log de 7GB, pudiendo liberar los 7GB a su finalización.
  • DELETE de 1000 en 1000. Tarda 75 seg con un crecimiento de Log de 55MB, pudiendo liberar los 55MB a su finalización.
  • DELETE de 1 en 1. Tarda 80 min (4800 seg) sin crecimiento apreciable del Log.

Y ahora vamos a repetirlo todo con el Recovery Model a Full:

  • DELETE *. Tarda 113 seg con un crecimiento de Log de 7GB, pudiendo liberar 5GB a su finalización.
  • DELETE de 1000 en 1000. Tarda 75 seg con un crecimiento de Log de 2GB, no pudiendo liberar espacio apreciable a su finalización.
  • DELETE de 1 en 1. Tarda 80 min (4800 seg) con un crecimiento de Log de 16GB, no pudiendo liberar espacio apreciable a su finalización.

Viendo todos estos ejemplo, queda bastante claro cuál es la forma más eficiente de realizar un borrado de datos en SQL Server, ¿verdad?.

Poco más por hoy. Como siempre, confío que la lectura resulte de interés.

 


Miembros de
Miembros de GITCA (Global IT Community Association)

Menu de Usuario
  Iniciar Sesión
  Registrarse
  Restablecer Contraseña
  Ventajas de Registrarse

Acerca de
  Contigo desde Oct 2007
  771 usuarios registrados
  86146 pageloads/mes
  Ranking Alexa 498160

Social Networks
Sigue a Portal GuilleSQL en Linkedin !!
Sigue a Portal GuilleSQL en Twitter !!



Archivo

Marzo de 2019 (1)
Octubre de 2018 (1)
Julio de 2018 (1)
Junio de 2018 (4)
Mayo de 2018 (5)
Abril de 2018 (3)
Marzo de 2018 (2)
Febrero de 2018 (7)
Enero de 2018 (1)
Diciembre de 2017 (15)
Noviembre de 2017 (7)
Junio de 2017 (3)
Mayo de 2017 (1)
Marzo de 2017 (3)
Enero de 2017 (4)
Junio de 2016 (1)
Mayo de 2016 (2)
Abril de 2016 (2)
Septiembre de 2015 (2)
Agosto de 2015 (2)
Junio de 2015 (10)
Mayo de 2015 (4)
Abril de 2015 (8)
Marzo de 2015 (11)
Octubre de 2014 (3)
Septiembre de 2014 (7)
Agosto de 2014 (5)
Julio de 2014 (2)
Mayo de 2014 (4)
Abril de 2014 (4)
Marzo de 2014 (4)
Febrero de 2014 (1)
Enero de 2014 (5)
Diciembre de 2013 (8)
Noviembre de 2013 (2)
Octubre de 2013 (7)
Septiembre de 2013 (6)
Agosto de 2013 (1)
Julio de 2013 (6)
Junio de 2013 (11)
Mayo de 2013 (7)
Abril de 2013 (6)
Febrero de 2013 (5)
Enero de 2013 (7)
Diciembre de 2012 (12)
Noviembre de 2012 (13)
Octubre de 2012 (5)
Septiembre de 2012 (3)
Agosto de 2012 (6)
Julio de 2012 (4)
Junio de 2012 (1)
Mayo de 2012 (2)
Abril de 2012 (7)
Marzo de 2012 (16)
Febrero de 2012 (9)
Enero de 2012 (5)
Diciembre de 2011 (10)
Noviembre de 2011 (10)
Octubre de 2011 (4)
Septiembre de 2011 (5)
Agosto de 2011 (2)
Julio de 2011 (2)
Junio de 2011 (4)
Mayo de 2011 (2)
Abril de 2011 (6)
Marzo de 2011 (4)
Febrero de 2011 (10)
Enero de 2011 (5)
Diciembre de 2010 (6)
Noviembre de 2010 (4)
Octubre de 2010 (8)
Septiembre de 2010 (4)
Agosto de 2010 (1)
Julio de 2010 (3)
Mayo de 2010 (5)
Abril de 2010 (6)
Marzo de 2010 (8)
Febrero de 2010 (3)
Enero de 2010 (1)
Diciembre de 2009 (9)
Noviembre de 2009 (14)
Octubre de 2009 (2)
Septiembre de 2009 (8)
Agosto de 2009 (2)
Julio de 2009 (10)
Junio de 2009 (9)
Mayo de 2009 (10)
Abril de 2009 (9)
Marzo de 2009 (3)
Febrero de 2009 (2)
Enero de 2009 (3)
Noviembre de 2008 (2)
Octubre de 2008 (2)
Septiembre de 2008 (2)
Agosto de 2008 (5)
Julio de 2008 (5)
Junio de 2008 (1)
Mayo de 2008 (3)
Abril de 2008 (2)
Marzo de 2008 (2)
Febrero de 2008 (2)
Enero de 2008 (5)
Noviembre de 2007 (2)
Octubre de 2007 (2)






Copyright © 2007 GuilleSQL, todos los derechos reservados.