sl@0: // Copyright (c) 1998-2009 Nokia Corporation and/or its subsidiary(-ies). sl@0: // All rights reserved. sl@0: // This component and the accompanying materials are made available sl@0: // under the terms of "Eclipse Public License v1.0" sl@0: // which accompanies this distribution, and is available sl@0: // at the URL "http://www.eclipse.org/legal/epl-v10.html". sl@0: // sl@0: // Initial Contributors: sl@0: // Nokia Corporation - initial contribution. sl@0: // sl@0: // Contributors: sl@0: // sl@0: // Description: sl@0: // sl@0: sl@0: #include "US_STD.H" sl@0: sl@0: // Class CDbStoreRecords::TIteratorC sl@0: sl@0: class CDbStoreRecords::TIteratorC sl@0: { sl@0: friend class CDbStoreRecords; sl@0: public: sl@0: inline TDbRecordId Current() const; sl@0: private: sl@0: TClusterDes iDes; sl@0: TDbRecordId iCurrent; sl@0: }; sl@0: sl@0: inline TDbRecordId CDbStoreRecords::TIteratorC::Current() const sl@0: {return iCurrent;} sl@0: sl@0: sl@0: // Class CDbStoreRecords::CIter sl@0: sl@0: NONSHARABLE_CLASS(CDbStoreRecords::CIter) : public CDbRecordIter sl@0: { sl@0: public: sl@0: CIter(CDbStoreRecords& aRecords); sl@0: private: sl@0: inline CDbStoreRecords& Records() const; sl@0: // sl@0: TInt Count() const; sl@0: TDbRecordId CurrentL(); sl@0: TBool GotoL(TDbPosition aPosition); sl@0: TBool GotoL(TDbRecordId aRecordId,RDbTableRow& aBuffer); sl@0: TBool SeekL(const TDbLookupKey& aKey,RDbTable::TComparison aComparison); sl@0: TDeleted DoDeletedL(TDbPosition aPosition,TDbRecordId aRecordId,const RDbTableRow* aRow); sl@0: private: sl@0: CDbStoreRecords::TIteratorC iIter; sl@0: }; sl@0: sl@0: CDbStoreRecords::CIter::CIter(CDbStoreRecords& aRecords) sl@0: : CDbRecordIter(aRecords) sl@0: {} sl@0: sl@0: inline CDbStoreRecords& CDbStoreRecords::CIter::Records() const sl@0: {return STATIC_CAST(CDbStoreRecords&,Host());} sl@0: sl@0: TInt CDbStoreRecords::CIter::Count() const sl@0: { sl@0: return Records().Count(); sl@0: } sl@0: sl@0: TDbRecordId CDbStoreRecords::CIter::CurrentL() sl@0: { sl@0: return iIter.Current(); sl@0: } sl@0: sl@0: TBool CDbStoreRecords::CIter::GotoL(TDbPosition aPosition) sl@0: { sl@0: return Records().GotoL(aPosition,iIter); sl@0: } sl@0: sl@0: TBool CDbStoreRecords::CIter::GotoL(TDbRecordId aRecordId,RDbTableRow&) sl@0: { sl@0: return Records().GotoL(aRecordId,iIter); sl@0: } sl@0: sl@0: TBool CDbStoreRecords::CIter::SeekL(const TDbLookupKey&,RDbTable::TComparison) sl@0: // sl@0: // Cannot do this on a table iterator sl@0: // sl@0: { sl@0: Panic(EDbCannotSeek); sl@0: return EFalse; sl@0: } sl@0: sl@0: CDbStoreRecords::CIter::TDeleted CDbStoreRecords::CIter::DoDeletedL(TDbPosition aPosition,TDbRecordId,const RDbTableRow*) sl@0: // sl@0: // reposition to next after a record is deleted sl@0: // Previous only required for reversed (index) iterators sl@0: // sl@0: { sl@0: return Records().DeletedL(aPosition,iIter) ? EAtRow : ENoRow; sl@0: } sl@0: sl@0: sl@0: // Class CDbStoreRecords::TToken sl@0: sl@0: void CDbStoreRecords::TToken::ExternalizeL(RWriteStream& aStream) const sl@0: { sl@0: aStream<>iHead; sl@0: iNext=aStream.ReadUint32L(); sl@0: TCardinality card; sl@0: aStream>>card; sl@0: iCount=card; sl@0: iAutoIncrement=aStream.ReadUint32L(); sl@0: } sl@0: sl@0: sl@0: // Class CDbStoreRecords sl@0: sl@0: CDbStoreRecords::CDbStoreRecords(CClusterCache& aCache) sl@0: : iCache(aCache) sl@0: {} sl@0: sl@0: CDbStoreRecords::~CDbStoreRecords() sl@0: { sl@0: iMap.Close(); sl@0: } sl@0: sl@0: TStreamId CDbStoreRecords::CreateL(CClusterCache& aCache) sl@0: // sl@0: // Create a new record space in the store, do not create a records object sl@0: // sl@0: { sl@0: TToken token; sl@0: token.iHead=ClusterId(aCache.Store().ExtendL()); sl@0: aCache.ClusterL().Create(token.iHead); sl@0: token.iNext=RecordId(token.iHead,0); sl@0: token.iCount=0; sl@0: token.iAutoIncrement=0; sl@0: RStoreWriteStream strm; sl@0: TStreamId id=strm.CreateLC(aCache.Store()); sl@0: strm<iClustering=aDef.Clustering(); sl@0: self->iTokenId=aDef.TokenId(); sl@0: CleanupStack::Pop(); sl@0: return self; sl@0: } sl@0: sl@0: TBool CDbStoreRecords::RestoreL() sl@0: // sl@0: // Restore an existing record space from the store sl@0: // sl@0: { sl@0: RStoreReadStream strm; sl@0: strm.OpenLC(iCache.Store(),iTokenId); sl@0: strm>>iToken; sl@0: CleanupStack::PopAndDestroy(); sl@0: iLinks.Invalidate(); sl@0: iMap.ResetL(iToken.iHead); sl@0: return EFalse; sl@0: } sl@0: sl@0: void CDbStoreRecords::DestroyL() sl@0: // sl@0: // Destroy the record space sl@0: // sl@0: { sl@0: iCache.Store().DeleteL(iTokenId); sl@0: } sl@0: sl@0: TInt CDbStoreRecords::CardinalityL(CStreamStore& aStore,const CDbStoreDef& aDef) sl@0: // sl@0: // Return the record count without constructing the entire table sl@0: // sl@0: { sl@0: RStoreReadStream strm; sl@0: strm.OpenLC(aStore,aDef.TokenId()); sl@0: TToken token; sl@0: strm>>token; sl@0: CleanupStack::PopAndDestroy(); sl@0: return token.iCount; sl@0: } sl@0: sl@0: void CDbStoreRecords::SynchL() sl@0: // sl@0: // write persistent token to the store sl@0: // sl@0: { sl@0: RStoreWriteStream strm; sl@0: strm.ReplaceLC(iCache.Store(),iTokenId); sl@0: strm<Discard(); sl@0: iCache.Store().DeleteL(aCluster); sl@0: aCluster=des.iNext; sl@0: TInt records=0; sl@0: for (TUint members=des.iMembership;members;members&=members-1) sl@0: ++records; sl@0: return records; sl@0: } sl@0: sl@0: TClusterId CDbStoreRecords::AlterL(TClusterId aCluster,CCluster::MAlter& aAlterer) sl@0: { sl@0: CCluster& cluster=iCache.ClusterL(aCluster); sl@0: cluster.AlterL(aAlterer); sl@0: return cluster.Des().iNext; sl@0: } sl@0: sl@0: TPtrC8 CDbStoreRecords::ReadL(TDbRecordId aRecordId) const sl@0: { sl@0: return iCache.ClusterL(ClusterId(aRecordId)).RecordL(RecordIndex(aRecordId)); sl@0: } sl@0: sl@0: TUint CDbStoreRecords::AutoIncrementL() sl@0: // sl@0: // Provide the next value for an auto-increment column sl@0: // sl@0: { sl@0: return iToken.iAutoIncrement++; sl@0: } sl@0: sl@0: TUint8* CDbStoreRecords::UpdateRecordL(TDbRecordId aRecordId,TInt aNewSize) sl@0: // sl@0: // read the cluster and return a writable descriptor over the new record data sl@0: // sl@0: { sl@0: return iCache.ClusterL(ClusterId(aRecordId)).UpdateL(RecordIndex(aRecordId),aNewSize); sl@0: } sl@0: sl@0: sl@0: TUint8* CDbStoreRecords::DoNewL(TInt aRecordSize) sl@0: // sl@0: // Phase 1 of appending a records sl@0: // sl@0: { sl@0: return UpdateRecordL(iToken.iNext,aRecordSize); sl@0: } sl@0: sl@0: TDbRecordId CDbStoreRecords::AppendL() sl@0: // sl@0: // Phase 2 of appending a record sl@0: // sl@0: { sl@0: TDbRecordId id=iToken.iNext; sl@0: TClusterId clusterId=ClusterId(id); sl@0: CCluster* cluster=iCache.Cluster(clusterId); sl@0: __ASSERT(cluster); sl@0: TInt nextIndex=RecordIndex(id)+1; sl@0: if (nextIndex>=iClustering || cluster->IsFull()) sl@0: { sl@0: TClusterId newcluster=ClusterId(iCache.Store().ExtendL()); sl@0: cluster->Relink(newcluster); sl@0: cluster->FlushL(); sl@0: cluster->Create(newcluster); sl@0: iMap.BindL(clusterId,newcluster); sl@0: iLinks.Bind(clusterId,newcluster,iMap); sl@0: iToken.iNext=RecordId(newcluster,0); sl@0: } sl@0: else sl@0: iToken.iNext=RecordId(clusterId,nextIndex); sl@0: ++iToken.iCount; sl@0: return id; sl@0: } sl@0: sl@0: TUint8* CDbStoreRecords::DoReplaceL(TDbRecordId aRecordId,TInt aRecordSize) sl@0: { sl@0: return UpdateRecordL(aRecordId,aRecordSize); sl@0: } sl@0: sl@0: void CDbStoreRecords::DoEraseL(TDbRecordId aRecordId) sl@0: { sl@0: TClusterId clusterId=ClusterId(aRecordId); sl@0: CCluster& cluster=iCache.ClusterL(clusterId); sl@0: if (!cluster.DeleteL(RecordIndex(aRecordId)) && clusterId!=ClusterId(iToken.iNext)) sl@0: { // cluster is now empty, but don't drop the last cluster, coz it hasn't all been used! sl@0: TClusterDes des; sl@0: TClusterId prev=PreviousClusterL(des,clusterId); sl@0: TClusterId next=cluster.Des().iNext; // next cluster sl@0: cluster.Discard(); // discard the cluster sl@0: iCache.Store().DeleteL(clusterId); sl@0: if (prev!=KNullClusterId) sl@0: iCache.ClusterL(prev).Relink(next); sl@0: else sl@0: iToken.iHead=next; sl@0: iLinks.Drop(clusterId,next); sl@0: iMap.DropL(clusterId,next); sl@0: } sl@0: --iToken.iCount; sl@0: } sl@0: sl@0: CDbRecordIter* CDbStoreRecords::IteratorL() sl@0: { sl@0: return new(ELeave) CIter(*this); sl@0: } sl@0: sl@0: void CDbStoreRecords::CompleteMapL() sl@0: { sl@0: TClusterId cluster=iMap.LastBound(); sl@0: TClusterDes des; sl@0: DesL(des,cluster); sl@0: do cluster=NextClusterL(des,cluster); while (cluster!=KNullClusterId); sl@0: } sl@0: sl@0: void CDbStoreRecords::DesL(TClusterDes& aDes,TClusterId aCluster) sl@0: // sl@0: // Read just the cluster descriptor sl@0: // sl@0: { sl@0: CCluster* cluster=iCache.Cluster(aCluster); sl@0: if (cluster) sl@0: aDes=cluster->Des(); sl@0: else sl@0: { sl@0: RStoreReadStream stream; sl@0: stream.OpenLC(iCache.Store(),aCluster); sl@0: stream>>aDes; sl@0: CleanupStack::PopAndDestroy(); sl@0: } sl@0: } sl@0: sl@0: TClusterId CDbStoreRecords::NextClusterL(TClusterDes& aDes,TClusterId aCluster) sl@0: { sl@0: TClusterId next=aDes.iNext; sl@0: if (next==KNullClusterId) sl@0: iMap.Complete(aCluster); sl@0: else sl@0: { sl@0: iMap.BindL(aCluster,next); sl@0: iLinks.Bind(aCluster,next,iMap); sl@0: DesL(aDes,next); sl@0: } sl@0: return next; sl@0: } sl@0: sl@0: TBool CDbStoreRecords::LocateL(TClusterId aCluster) sl@0: // sl@0: // Locate the cluster in the table. If not present return EFalse sl@0: // If present fill up the cluster link cache with the loop sl@0: // containing the predecessor to aCluster sl@0: // aDes will have the previous cluster des sl@0: // sl@0: { sl@0: TClusterId cluster=aCluster; sl@0: __ASSERT(aCluster!=iToken.iHead); sl@0: __ASSERT(!iLinks.At(aCluster,cluster)); sl@0: // sl@0: if (!iMap.IsComplete()) sl@0: CompleteMapL(); sl@0: // sl@0: TClusterDes des; sl@0: TClusterId links[RClusterMap::ESeparation]; sl@0: TClusterId* p=links; sl@0: for (TInt n=RClusterMap::ESeparation;n>0;--n) sl@0: { sl@0: *p++=cluster; sl@0: TBool r=iMap.At(cluster,cluster); sl@0: DesL(des,cluster); sl@0: if (r) sl@0: { sl@0: __ASSERT(cluster!=KNullClusterId); // only iHead->Null sl@0: iLinks.Reset(cluster); sl@0: while (aCluster!=des.iNext) sl@0: cluster=NextClusterL(des,cluster); sl@0: iLinks.Add(links,p); sl@0: return ETrue; sl@0: } sl@0: cluster=des.iNext; sl@0: } sl@0: return EFalse; // not in this table! sl@0: } sl@0: sl@0: TClusterId CDbStoreRecords::PreviousClusterL(TClusterDes& aDes,TClusterId aCluster) sl@0: { sl@0: if (aCluster==iToken.iHead) sl@0: return KNullClusterId; sl@0: if (!iLinks.At(aCluster,aCluster)) sl@0: { sl@0: __DEBUG(TBool dbgchk=) LocateL(aCluster); sl@0: __ASSERT(dbgchk); sl@0: __DEBUG(dbgchk=) iLinks.At(aCluster,aCluster); sl@0: __ASSERT(dbgchk); sl@0: } sl@0: DesL(aDes,aCluster); sl@0: return aCluster; sl@0: } sl@0: sl@0: TBool CDbStoreRecords::GotoL(TDbPosition aPosition,TIteratorC& anIterator) sl@0: { sl@0: TClusterId cluster=ClusterId(anIterator.iCurrent); sl@0: TInt index=RecordIndex(anIterator.iCurrent); sl@0: switch (aPosition) sl@0: { sl@0: default: sl@0: __ASSERT(0); sl@0: case EDbFirst: sl@0: DesL(anIterator.iDes,cluster=iToken.iHead); sl@0: iLinks.Reset(cluster); sl@0: index=-1; sl@0: // drop through to next sl@0: case EDbNext: sl@0: for (;;) sl@0: { sl@0: TUint membership=anIterator.iDes.iMembership; sl@0: while (++index>index)&1) sl@0: { sl@0: __ASSERT(cluster!=ClusterId(iToken.iNext)||index=0) sl@0: { sl@0: if ((membership>>index)&1) sl@0: { sl@0: anIterator.iCurrent=RecordId(cluster,index); sl@0: return ETrue; sl@0: } sl@0: } sl@0: __ASSERT(index==-1); sl@0: cluster=PreviousClusterL(anIterator.iDes,cluster); sl@0: if (cluster==KNullClusterId) sl@0: return EFalse; // ran out of data sl@0: index=KMaxClustering; sl@0: } sl@0: } sl@0: } sl@0: sl@0: TBool CDbStoreRecords::DeletedL(TDbPosition aPosition,TIteratorC& anIterator) sl@0: // sl@0: // Record has been deleted sl@0: // sl@0: { sl@0: anIterator.iDes.iMembership&=~(1<>RecordIndex(aRecordId))&1; sl@0: } sl@0: sl@0: TBool CDbStoreRecords::ExistsL(TDbRecordId aRecordId) sl@0: // sl@0: // Ensure that the record is in this table sl@0: // sl@0: { sl@0: TIteratorC iter; sl@0: return GotoL(aRecordId,iter); sl@0: } sl@0: sl@0: // Class HUnicodeCompressor sl@0: sl@0: NONSHARABLE_CLASS(HUnicodeCompressor) : public TStreamFilter sl@0: { sl@0: public: sl@0: HUnicodeCompressor(MStreamBuf* aSink); sl@0: private: sl@0: void DoRelease(); sl@0: void DoSynchL(); sl@0: TInt Capacity(TInt aMaxLength); sl@0: TInt FilterL(TAny* aPtr,TInt aMaxLength,const TUint8*& aFrom,const TUint8* anEnd); sl@0: private: sl@0: enum {EFlushBufferSize=16}; sl@0: private: sl@0: TUnicodeCompressor iCompressor; sl@0: }; sl@0: sl@0: HUnicodeCompressor::HUnicodeCompressor(MStreamBuf* aSink) sl@0: { sl@0: Set(aSink,EAttached|EWrite); sl@0: } sl@0: sl@0: void HUnicodeCompressor::DoRelease() sl@0: { sl@0: TStreamFilter::DoRelease(); sl@0: delete this; sl@0: } sl@0: sl@0: TInt HUnicodeCompressor::Capacity(TInt aMaxLength) sl@0: // sl@0: // Return the maximum guaranteed input used for aMaxLength output. sl@0: // SUC at worst expands n chars to 3n bytes sl@0: // sl@0: { sl@0: aMaxLength=(aMaxLength+2)/3; // # chars input guaranteed sl@0: return aMaxLength*2; // # bytes sl@0: } sl@0: sl@0: TInt HUnicodeCompressor::FilterL(TAny* aPtr,TInt aMaxLength,const TUint8*& aFrom,const TUint8* aEnd) sl@0: { sl@0: TMemoryUnicodeSource source(reinterpret_cast(aFrom)); sl@0: TInt used; sl@0: iCompressor.CompressL(reinterpret_cast(aPtr),source,aMaxLength,(aEnd-aFrom)>>1,&aMaxLength,&used); sl@0: aFrom+=used<<1; sl@0: return aMaxLength; sl@0: } sl@0: sl@0: void HUnicodeCompressor::DoSynchL() sl@0: { sl@0: if (IsCommitted()) sl@0: return; sl@0: // sl@0: TUint8 buf[EFlushBufferSize]; sl@0: TInt emit; sl@0: iCompressor.FlushL(buf,EFlushBufferSize,emit); sl@0: if (emit) sl@0: EmitL(buf,emit); sl@0: // sl@0: TStreamFilter::DoSynchL(); sl@0: Committed(); sl@0: } sl@0: sl@0: // Class HUnicodeExander sl@0: sl@0: NONSHARABLE_CLASS(HUnicodeExpander) : public TStreamFilter sl@0: { sl@0: public: sl@0: HUnicodeExpander(MStreamBuf* aSource); sl@0: private: sl@0: void DoRelease(); sl@0: // void DoSynchL(); sl@0: TInt Capacity(TInt aMaxLength); sl@0: TInt FilterL(TAny* aPtr,TInt aMaxLength,const TUint8*& aFrom,const TUint8* anEnd); sl@0: private: sl@0: enum {EFlushBufferSize=16}; sl@0: private: sl@0: TUnicodeExpander iExpander; sl@0: }; sl@0: sl@0: HUnicodeExpander::HUnicodeExpander(MStreamBuf* aSource) sl@0: { sl@0: Set(aSource,EAttached|ERead); sl@0: } sl@0: sl@0: void HUnicodeExpander::DoRelease() sl@0: { sl@0: TStreamFilter::DoRelease(); sl@0: delete this; sl@0: } sl@0: sl@0: TInt HUnicodeExpander::Capacity(TInt aMaxLength) sl@0: // sl@0: // Return the maximum guaranteed input used for aMaxLength output. sl@0: // SUC at worst expands n chars to 3n bytes sl@0: // sl@0: { sl@0: return aMaxLength>>1; // best expansion from ASCII chars sl@0: } sl@0: sl@0: TInt HUnicodeExpander::FilterL(TAny* aPtr,TInt aMaxLength,const TUint8*& aFrom,const TUint8* aEnd) sl@0: { sl@0: TMemoryUnicodeSink sink(reinterpret_cast(aPtr)); sl@0: TInt used; sl@0: iExpander.ExpandL(sink,aFrom,aMaxLength>>1,aEnd-aFrom,&aMaxLength,&used); sl@0: aFrom+=used; sl@0: return aMaxLength<<1; sl@0: } sl@0: sl@0: /* sl@0: void HUnicodeExpander::DoSynchL() sl@0: { sl@0: if (IsCommitted()) sl@0: return; sl@0: // sl@0: // TUint8 buf[EFlushBufferSize]; sl@0: // TInt emit; sl@0: // iCompressor.FlushL(buf,EFlushBufferSize,&emit); sl@0: // if (emit) sl@0: // EmitL(buf,emit); sl@0: // sl@0: TStreamFilter::DoSynchL(); sl@0: Committed(); sl@0: } sl@0: */ sl@0: sl@0: // Class CDbStoreBlobs sl@0: sl@0: CDbStoreBlobs::CDbStoreBlobs(CDbStoreDatabase& aDatabase,TInt aInlineLimit) sl@0: : iDatabase(aDatabase) sl@0: { sl@0: SetInlineLimit(aInlineLimit); sl@0: } sl@0: sl@0: MStreamBuf* CDbStoreBlobs::DoCreateL(TDbBlobId& aBlobId,TDbColType aType) sl@0: { sl@0: __ASSERT(TDbCol::IsLong(aType)); sl@0: // sl@0: RDbStoreWriteStream strm(iDatabase); sl@0: aBlobId=strm.CreateLC(iDatabase.Store()).Value(); sl@0: strm.FilterL(aType!=EDbColLongBinary?strm.EText:strm.EBinary,aBlobId); sl@0: MStreamBuf* blob=strm.Sink(); sl@0: if (aType==EDbColLongText16) sl@0: blob=new(ELeave) HUnicodeCompressor(blob); sl@0: CleanupStack::Pop(); sl@0: return blob; sl@0: } sl@0: sl@0: MStreamBuf* CDbStoreBlobs::ReadL(TDbBlobId aBlobId,TDbColType aType) const sl@0: { sl@0: __ASSERT(TDbCol::IsLong(aType)); sl@0: // sl@0: RDbStoreReadStream strm(iDatabase); sl@0: strm.OpenLC(iDatabase.Store(),aBlobId); sl@0: strm.FilterL(aType!=EDbColLongBinary?strm.EText:strm.EBinary,aBlobId); sl@0: MStreamBuf* blob=strm.Source(); sl@0: if (aType==EDbColLongText16) sl@0: blob=new(ELeave) HUnicodeExpander(blob); sl@0: CleanupStack::Pop(); sl@0: return blob; sl@0: } sl@0: sl@0: void CDbStoreBlobs::DoDeleteL(TDbBlobId aBlobId) sl@0: { sl@0: iDatabase.Store().DeleteL(TStreamId(aBlobId)); sl@0: }