<div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small">One place to start debug is dumping the registers of the device and look for race conditions.<br><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small">

Thanks,<br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small">Purush<br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Jul 3, 2014 at 12:56 AM,  <span dir="ltr"><<a href="mailto:nvmewin-request@lists.openfabrics.org" target="_blank">nvmewin-request@lists.openfabrics.org</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Send nvmewin mailing list submissions to<br>
        <a href="mailto:nvmewin@lists.openfabrics.org">nvmewin@lists.openfabrics.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://lists.openfabrics.org/mailman/listinfo/nvmewin" target="_blank">http://lists.openfabrics.org/mailman/listinfo/nvmewin</a><br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:nvmewin-request@lists.openfabrics.org">nvmewin-request@lists.openfabrics.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:nvmewin-owner@lists.openfabrics.org">nvmewin-owner@lists.openfabrics.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of nvmewin digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1. Re: Bug Check 133 (<a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a>)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Thu, 3 Jul 2014 16:06:32 +0800<br>
From: "<a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a>" <<a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a>><br>
To: "Alex Chang" <<a href="mailto:Alex.Chang@pmcs.com">Alex.Chang@pmcs.com</a>>,         nvmewin<br>
        <<a href="mailto:nvmewin@lists.openfabrics.org">nvmewin@lists.openfabrics.org</a>><br>
Subject: Re: [nvmewin] Bug Check 133<br>
Message-ID: <<a href="mailto:2014070316063164889516@memblaze.com">2014070316063164889516@memblaze.com</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Hi Alex,<br>
<br>
Do you think something is wrong with the device ?<br>
<br>
Could you offer me some advice ?<br>
<br>
Thanks<br>
<br>
<br>
<br>
<a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a><br>
<br>
From: Alex Chang<br>
Date: 2014-07-03 00:18<br>
To: <a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a>; nvmewin<br>
Subject: RE: Re: [nvmewin] Bug Check 133<br>
Hi Cheng,<br>
<br>
>From our previous experience, it?s very likely your device is stuck in reset procedure when the while loop persists.<br>
<br>
Thanks,<br>
Alex<br>
<br>
From: <a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a> [mailto:<a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a>]<br>
Sent: Wednesday, July 02, 2014 12:11 AM<br>
To: Alex Chang; nvmewin<br>
Subject: Re: Re: [nvmewin] Bug Check 133<br>
<br>
Hi Alex,<br>
<br>
I find out something by disassembling.<br>
<br>
Call Site<br>
nt!KeBugCheckEx<br>
nt! ?? ::FNODOBFM::`string'<br>
nt!KeUpdateRunTime<br>
hal!HalpTimerClockInterrupt<br>
nt!KiInterruptDispatchLBControl<br>
nvme+0x40c3  <--- in the while loop of function: NVMeWaitForCtrlRDY<br>
nvme+0x417d  <--- nvmeStd.c: 2063 (function: RecoveryDpcRoutine)<br>
nt!KiExecuteAllDpcs<br>
nt!KiRetireDpcList<br>
nt!KxRetireDpcList<br>
nt!KiDispatchInterruptContinue<br>
nt!KiDpcInterrupt<br>
storport!RaidUnitSubmitResetRequest<br>
storport!RaUnitScsiIrp<br>
storport!RaDriverScsiIrp<br>
storport!RaSendIrpSynchronous<br>
storport!RaidUnitResetUnit<br>
storport!RaidUnitHierarchicalReset<br>
storport!RaidHierarchicalResetWorkRoutine<br>
nt!IopProcessWorkItem<br>
nt!ExpWorkerThread<br>
nt!PspSystemThreadStartup<br>
nt!KiStartSystemThread<br>
<br>
I'd like to know the reason why the while loop is too much.<br>
<br>
I need your help, thanks.<br>
<br>
<br>
<br>
<a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a><br>
<br>
From: <a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a><br>
Date: 2014-07-01 10:04<br>
To: Alex Chang; nvmewin<br>
Subject: Re: RE: [nvmewin] Bug Check 133<br>
Hi Alex,<br>
<br>
I appreciate you reply.<br>
<br>
1. I build the driver by VS2013 and WDK 8.1 in the trunk\source dirctory, and I don't change any thing<br>
2. I use 16 workers with 32 outstanding IOs, assigned access 32K; 50%Read; 0% random.  there are 4 logical cores on the test system<br>
3. the bug check is triggered after 6 hours, but I have launched IOMeter for 18 hours, it isn't seen again.<br>
<br>
Thanks<br>
<br>
<br>
<br>
<a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a><br>
<br>
From: Alex Chang<br>
Date: 2014-07-01 00:09<br>
To: <a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a>; nvmewin<br>
Subject: RE: [nvmewin] Bug Check 133<br>
Hi Cheng,<br>
<br>
Although I?ve never seen the problem before with the driver, like to ask you some questions:<br>
1.       Did you add any changes to the driver?<br>
2.       How many workers you use in IOMeter? How many logical cores running on your test system?<br>
3.       How long will the bug check be triggered after launching IOMeter?<br>
Thanks,<br>
Alex<br>
<br>
From: <a href="mailto:nvmewin-bounces@lists.openfabrics.org">nvmewin-bounces@lists.openfabrics.org</a> [mailto:<a href="mailto:nvmewin-bounces@lists.openfabrics.org">nvmewin-bounces@lists.openfabrics.org</a>] On Behalf Of <a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a><br>


Sent: Monday, June 30, 2014 2:07 AM<br>
To: nvmewin<br>
Subject: Re: [nvmewin] Bug Check 133<br>
<br>
2: kd> vertarget<br>
Windows 8 Kernel Version 9200 MP (4 procs) Free x64<br>
Product: Server, suite: TerminalServer SingleUserTS<br>
Built by: 9200.16384.amd64fre.win8_rtm.120725-1247<br>
Machine Name:*** ERROR: Module load completed but symbols could not be loaded for srv.sys<br>
<br>
Kernel base = 0xfffff801`54087000 PsLoadedModuleList = 0xfffff801`54351a60<br>
Debug session time: Mon Jun 30 15:05:08.789 2014 (UTC + 8:00)<br>
System Uptime: 0 days 5:24:55.498<br>
<br>
<br>
<br>
<br>
<br>
<a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a><br>
<br>
From: <a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a><br>
Date: 2014-06-30 17:04<br>
To: nvmewin<br>
Subject: Bug Check 133<br>
Hi All<br>
<br>
I get a BSOD when I run IOMeter<br>
<br>
the driver is built by myself and Unfortunately I miss the .pdb file<br>
<br>
following the detail of BSOD:<br>
<br>
*******************************************************************************<br>
* *<br>
* Bugcheck Analysis *<br>
* *<br>
*******************************************************************************<br>
<br>
DPC_WATCHDOG_VIOLATION (133)<br>
The DPC watchdog detected a prolonged run time at an IRQL of DISPATCH_LEVEL<br>
or above.<br>
Arguments:<br>
Arg1: 0000000000000000, A single DPC or ISR exceeded its time allotment. The offending<br>
component can usually be identified with a stack trace.<br>
Arg2: 0000000000000281, The DPC time count (in ticks).<br>
Arg3: 0000000000000280, The DPC time allotment (in ticks).<br>
Arg4: 0000000000000000<br>
<br>
Debugging Details:<br>
------------------<br>
<br>
<br>
ADDITIONAL_DEBUG_TEXT:<br>
You can run '.symfix; .reload' to try to fix the symbol path and load symbols.<br>
<br>
MODULE_NAME: nvme<br>
<br>
FAULTING_MODULE: fffff80154087000 nt<br>
<br>
DEBUG_FLR_IMAGE_TIMESTAMP: 53ac04c7<br>
<br>
DPC_TIMEOUT_TYPE: SINGLE_DPC_TIMEOUT_EXCEEDED<br>
<br>
DEFAULT_BUCKET_ID: WIN8_DRIVER_FAULT<br>
<br>
BUGCHECK_STR: 0x133<br>
<br>
CURRENT_IRQL: 0<br>
<br>
ANALYSIS_VERSION: 6.3.9600.16384 (debuggers(dbg).130821-1623) amd64fre<br>
<br>
LAST_CONTROL_TRANSFER: from fffff8015425b5df to fffff80154102040<br>
<br>
STACK_TEXT:<br>
fffff880`02c959f8 fffff801`5425b5df : 00000000`00000133 00000000`00000000 00000000`00000281 00000000`00000280 : nt!KeBugCheckEx<br>
fffff880`02c95a00 fffff801`5412cf11 : ffffffff`ffd0d9a0 fffff880`02c65180 fffff880`02c95b60 fffff780`00000320 : nt!XIPDispatch+0x1437f<br>
fffff880`02c95a80 fffff801`5403de84 : ffffffff`ffd0d9a0 fffffa80`0ca00202 fffffa80`0ca00210 00001f80`00000200 : nt!KeUpdateRunTime+0x51<br>
fffff880`02c95ab0 fffff801`540fb4ae : 01cf9431`a0b7c658 fffffa80`0c76d010 fffffa80`0ca00210 00000000`0000005a : hal!HalSetTimeIncrement+0x3f54<br>
fffff880`02c95ae0 fffff880`00f030c3 : 00000000`00000000 fffffa80`0c76d010 01cf9431`a06ddd2b 01cf9431`a0ba289d : nt!KeSynchronizeExecution+0xa6e<br>
fffff880`02c95c70 fffff880`00f0317d : 00000000`00460000 fffffa80`0d4b9330 00000000`0000005a 00000000`00000001 : nvme+0x40c3<br>
fffff880`02c95ca0 fffff801`540f8498 : fffff880`02c67f00 fffffa80`0c76e240 fffff880`02c95e00 fffffa80`0c9ec5e8 : nvme+0x417d<br>
fffff880`02c95d00 fffff801`54128d50 : fffff880`02c65180 0000002c`bd2e6172 fffffa80`0d9f64c0 00000000`00000025 : nt!ObfDereferenceObject+0x7f8<br>
fffff880`02c95e40 fffff801`54128745 : e0015431`1e3070e7 fffff880`02c65180 fffff880`02dec6b0 fffffa80`0d94cc00 : nt!KeWaitForSingleObject+0x1180<br>
fffff880`02c95fb0 fffff801`54128549 : fffff880`02dec670 fffff880`00ebf301 00000000`00000002 fffff880`00ebe39b : nt!KeWaitForSingleObject+0xb75<br>
fffff880`02dec600 fffff801`541c3398 : fffffa80`0d4b9330 fffffa80`0d4b9330 fffff880`02dec670 fffffa80`0c76d010 : nt!KeWaitForSingleObject+0x979<br>
fffff880`02dec630 fffff880`00ecb1b2 : 00000000`00000000 00000000`00000001 fffffa80`0d94cc00 fffff880`0197b8be : nt!wcsncat_s+0x1f8<br>
fffff880`02dec7c0 fffff880`00ed71c8 : fffff880`009ed180 00000000`00000000 fffffa80`0d4b9330 fffff801`5402dbb9 : storport!StorPortPause+0xb4a2<br>
fffff880`02dec860 fffff880`00eac6b5 : 00000000`00000001 fffff801`5410b770 fffffa80`0d94cc00 00000000`00000058 : storport!StorPortConvertUlongToPhysicalAddress+0x9784<br>
fffff880`02dec9a0 fffff880`00ec6fe6 : fffffa80`0d94cc00 fffffa80`0c9f0940 fffffa80`0d4b9330 fffff880`00ec66f6 : storport!StorPortQuerySystemTime+0xe55<br>
fffff880`02dec9e0 fffff880`00ec8d4d : 00000000`00000000 fffffa80`0c9f0940 fffffa80`0d4b9330 fffffa80`0c9ec1a0 : storport!StorPortPause+0x72d6<br>
fffff880`02deca40 fffff880`00ecd6a2 : fffffa80`00000000 fffffa80`0c9f0940 fffffa80`0c9f0ee0 00000000`80040081 : storport!StorPortPause+0x903d<br>
fffff880`02deca90 fffff880`00ec8082 : fffffa80`0e0a3b90 fffff801`00000000 fffffa80`0e0a3b90 00000000`00000000 : storport!StorPortPause+0xd992<br>
fffff880`02decac0 fffff801`540ed45b : fffffa80`0e0a3b90 00000000`00000000 fffff880`00ec801c fffffa80`0c780ef0 : storport!StorPortPause+0x8372<br>
fffff880`02decb10 fffff801`5413a391 : fffff801`5430b080 fffffa80`0c70bb00 fffff801`540ed3fc fffff801`5430b000 : nt!FsRtlDoesNameContainWildCards+0x50b<br>
fffff880`02decb80 fffff801`540a9521 : 00000000`00000000 00000000`00000080 fffff801`5413a250 fffffa80`0c70bb00 : nt!IofCompleteRequest+0x151<br>
fffff880`02decc10 fffff801`540e7dd6 : fffff880`02c65180 fffffa80`0c70bb00 fffff880`02c70e40 fffffa80`0c7ee980 : nt!KeQueryMaximumGroupCount+0x187d<br>
fffff880`02decc60 00000000`00000000 : fffff880`02ded000 fffff880`02de7000 00000000`00000000 00000000`00000000 : nt!_misaligned_access+0x36<br>
<br>
<br>
STACK_COMMAND: kb<br>
<br>
FOLLOWUP_IP:<br>
nvme+40c3<br>
fffff880`00f030c3 83e001 and eax,1<br>
<br>
SYMBOL_STACK_INDEX: 5<br>
<br>
SYMBOL_NAME: nvme+40c3<br>
<br>
FOLLOWUP_NAME: MachineOwner<br>
<br>
IMAGE_NAME: nvme.sys<br>
<br>
BUCKET_ID: WRONG_SYMBOLS<br>
<br>
FAILURE_BUCKET_ID: WRONG_SYMBOLS<br>
<br>
ANALYSIS_SOURCE: KM<br>
<br>
FAILURE_ID_HASH_STRING: km:wrong_symbols<br>
<br>
FAILURE_ID_HASH: {70b057e8-2462-896f-28e7-ac72d4d365f8}<br>
<br>
Followup: MachineOwner<br>
---------<br>
<br>
<br>
<br>
<br>
<br>
<br>
<a href="mailto:cheng.peng@memblaze.com">cheng.peng@memblaze.com</a><br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://lists.openfabrics.org/pipermail/nvmewin/attachments/20140703/43e90428/attachment.html" target="_blank">http://lists.openfabrics.org/pipermail/nvmewin/attachments/20140703/43e90428/attachment.html</a>><br>


<br>
------------------------------<br>
<br>
_______________________________________________<br>
nvmewin mailing list<br>
<a href="mailto:nvmewin@lists.openfabrics.org">nvmewin@lists.openfabrics.org</a><br>
<a href="http://lists.openfabrics.org/mailman/listinfo/nvmewin" target="_blank">http://lists.openfabrics.org/mailman/listinfo/nvmewin</a><br>
<br>
<br>
End of nvmewin Digest, Vol 31, Issue 6<br>
**************************************<br>
</blockquote></div><br></div>